Ultralytics YOLO11
Visão geral
YOLO11 é a mais recente iteração da série Ultralytics YOLO série de detectores de objectos em tempo real, redefinindo o que é possível com precisão, velocidade e eficiência de ponta. Com base nos avanços impressionantes das versões anteriores do YOLO , o YOLO11 introduz melhorias significativas na arquitetura e nos métodos de formação, tornando-o uma escolha versátil para uma vasta gama de tarefas de visão por computador.
Ver: Como utilizar o Ultralytics YOLO11 para a deteção e o seguimento de objectos | Como fazer uma avaliação comparativa | YOLO11 RELEASED🚀
Caraterísticas principais
- Extração de caraterísticas melhorada: YOLO11 utiliza uma arquitetura melhorada de espinha dorsal e pescoço, que melhora as capacidades de extração de caraterísticas para uma deteção de objectos mais precisa e um desempenho de tarefas complexas.
- Optimizado para eficiência e velocidade: YOLO11 apresenta designs arquitectónicos refinados e pipelines de formação optimizados, proporcionando velocidades de processamento mais rápidas e mantendo um equilíbrio ideal entre precisão e desempenho.
- Maior precisão com menos parâmetros: Com os avanços na conceção do modelo, o YOLO11m atinge uma precisão média (mAP) mais elevada no conjunto de dados COCO, utilizando menos 22% de parâmetros do que o YOLOv8m, o que o torna computacionalmente eficiente sem comprometer a exatidão.
- Adaptabilidade em vários ambientes: YOLO11 pode ser implantado sem problemas em vários ambientes, incluindo dispositivos de borda, plataformas de nuvem e sistemas que suportam GPUs NVIDIA , garantindo a máxima flexibilidade.
- Ampla gama de tarefas suportadas: Quer se trate de deteção de objectos, segmentação de instâncias, classificação de imagens, estimativa de pose ou deteção orientada de objectos (OBB), o YOLO11 foi concebido para responder a um conjunto diversificado de desafios de visão computacional.
Tarefas e modos suportados
YOLO11 baseia-se na versátil gama de modelos introduzida em YOLOv8, oferecendo um suporte melhorado em várias tarefas de visão por computador:
Modelo | Nomes de ficheiros | Tarefa | Inferência | Validação | Formação | Exportação |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
Deteção | ✅ | ✅ | ✅ | ✅ |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
Segmentação de instâncias | ✅ | ✅ | ✅ | ✅ |
YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
Deteção orientada | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
Classificação | ✅ | ✅ | ✅ | ✅ |
Esta tabela apresenta uma visão geral das variantes do modelo YOLO11 , mostrando a sua aplicabilidade em tarefas específicas e a compatibilidade com modos operacionais como Inferência, Validação, Treino e Exportação. Esta flexibilidade torna o YOLO11 adequado para uma vasta gama de aplicações em visão computacional, desde a deteção em tempo real a tarefas de segmentação complexas.
Métricas de desempenho
Desempenho
Consulte os Documentos de deteção para obter exemplos de utilização com estes modelos treinados em COCO, que incluem 80 classes pré-treinadas.
Modelo | tamanho (pixéis) |
mAPval 50-95 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Consulte os documentos de segmentação para obter exemplos de uso com esses modelos treinados no COCO, que incluem 80 classes pré-treinadas.
Modelo | tamanho (pixéis) |
mAPbox 50-95 |
mAPmask 50-95 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Consulte os documentos de classificação para obter exemplos de utilização com estes modelos treinados no ImageNet, que incluem 1000 classes pré-treinadas.
Modelo | tamanho (pixéis) |
acc top1 |
acc top5 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) a 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Ver Pose Estimation Docs para exemplos de utilização com estes modelos treinados em COCO, que incluem 1 classe pré-treinada, 'person'.
Modelo | tamanho (pixéis) |
mAPpose 50-95 |
mAPpose 50 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Consulte os documentos de deteção orientada para obter exemplos de utilização com estes modelos treinados no DOTAv1, que incluem 15 classes pré-treinadas.
Modelo | tamanho (pixéis) |
mAPtest 50 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Exemplos de utilização
Esta secção fornece exemplos simples de formação e inferência em YOLO11 . Para obter a documentação completa sobre estes e outros modos, consulte as páginas de documentação Prever, Treinar, Val e Exportar.
Note que o exemplo abaixo é para YOLO11 Detetar modelos para deteção de objectos. Para outras tarefas suportadas, consulte os documentos Segmentar, Classificar, OBB e Pose.
Exemplo
PyTorch pré-treinado *.pt
modelos, bem como a configuração *.yaml
podem ser passados para os ficheiros YOLO()
para criar uma instância de modelo em Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI estão disponíveis para executar diretamente os modelos:
Citações e agradecimentos
Ultralytics YOLO11 Publicação
Ultralytics não publicou um documento de investigação formal para YOLO11 devido à natureza em rápida evolução dos modelos. Concentramo-nos no avanço da tecnologia e em facilitar a sua utilização, em vez de produzir documentação estática. Para obter as informações mais actualizadas sobre a arquitetura, as funcionalidades e a utilização do YOLO , consulte o nosso repositório GitHub e a documentação.
Se utilizar YOLO11 ou qualquer outro software deste repositório no seu trabalho, por favor cite-o utilizando o seguinte formato:
Tenha em atenção que o DOI está pendente e será adicionado à citação assim que estiver disponível. YOLO11 modelos são fornecidos ao abrigo das licenças AGPL-3.0 e licenças Enterprise.
FAQ
Quais são as principais melhorias em Ultralytics YOLO11 em comparação com as versões anteriores?
Ultralytics YOLO11 introduz vários avanços significativos em relação aos seus antecessores. As principais melhorias incluem:
- Extração de caraterísticas melhorada: YOLO11 utiliza uma arquitetura melhorada de espinha dorsal e pescoço, melhorando as capacidades de extração de caraterísticas para uma deteção de objectos mais precisa.
- Eficiência e velocidade optimizadas: Os designs arquitectónicos refinados e os pipelines de formação optimizados proporcionam velocidades de processamento mais rápidas, mantendo um equilíbrio entre precisão e desempenho.
- Maior exatidão com menos parâmetros: O YOLO11m atinge uma precisão média (mAP) mais elevada no conjunto de dados COCO com menos 22% de parâmetros do que o YOLOv8m, o que o torna computacionalmente eficiente sem comprometer a exatidão.
- Adaptabilidade entre ambientes: YOLO11 pode ser implantado em vários ambientes, incluindo dispositivos de ponta, plataformas de nuvem e sistemas que suportam GPUs NVIDIA .
- Vasta gama de tarefas suportadas: YOLO11 suporta diversas tarefas de visão computacional, tais como deteção de objectos, segmentação de instâncias, classificação de imagens, estimativa de pose e deteção orientada de objectos (OBB).
Como posso treinar um modelo YOLO11 para a deteção de objectos?
O treino de um modelo YOLO11 para deteção de objectos pode ser feito utilizando os comandos Python ou CLI . Abaixo estão exemplos de ambos os métodos:
Exemplo
Para obter instruções mais pormenorizadas, consulte a documentação do comboio.
Que tarefas podem realizar os modelos YOLO11 ?
YOLO11 são versáteis e suportam uma vasta gama de tarefas de visão computacional, incluindo:
- Deteção de objectos: Identificar e localizar objectos numa imagem.
- Segmentação de instâncias: Detetar objectos e delinear os seus limites.
- Classificação de imagens: Categorização de imagens em classes predefinidas.
- Estimativa de pose: Detetar e seguir pontos-chave em corpos humanos.
- Deteção orientada de objectos (OBB): Deteção de objectos com rotação para maior precisão.
Para mais informações sobre cada tarefa, consulte a documentação sobre Deteção, Segmentação de instâncias, Classificação, Estimativa de pose e Deteção orientada.
Como é que o YOLO11 consegue uma maior precisão com menos parâmetros?
YOLO11 consegue uma maior precisão com menos parâmetros através de avanços na conceção de modelos e técnicas de otimização. A arquitetura melhorada permite uma extração e um processamento eficientes das caraterísticas, o que resulta numa precisão média (mAP) mais elevada em conjuntos de dados como o COCO, utilizando menos 22% de parâmetros do que o YOLOv8m. Isto torna o YOLO11 computacionalmente eficiente sem comprometer a precisão, o que o torna adequado para ser implementado em dispositivos com recursos limitados.
O YOLO11 pode ser implementado em dispositivos periféricos?
Sim, o YOLO11 foi concebido para adaptabilidade em vários ambientes, incluindo dispositivos de ponta. A sua arquitetura optimizada e capacidades de processamento eficientes tornam-no adequado para implementação em dispositivos periféricos, plataformas de nuvem e sistemas que suportam GPUs NVIDIA . Esta flexibilidade garante que o YOLO11 pode ser utilizado em diversas aplicações, desde a deteção em tempo real em dispositivos móveis a tarefas de segmentação complexas em ambientes de nuvem. Para obter mais detalhes sobre as opções de implantação, consulte a documentação de exportação.