Ir para o conteúdo

Ultralytics YOLO11

Visão geral

YOLO11 é a iteração mais recente na série Ultralytics YOLO de detectores de objetos em tempo real, redefinindo o que é possível com precisão, velocidade e eficiência de ponta. Com base nos impressionantes avanços das versões anteriores do YOLO, o YOLO11 introduz melhorias significativas na arquitetura e nos métodos de treinamento, tornando-o uma escolha versátil para uma ampla gama de tarefas de visão computacional.

Gráficos de Comparação do Ultralytics YOLO11

Ultralytics YOLO11 🚀 Podcast gerado por NotebookLM



Assista: Como usar o Ultralytics YOLO11 para detecção e rastreamento de objetos | Como realizar benchmarking | YOLO11 LANÇADO🚀

Principais Características

  • Extração de Características Aprimorada: O YOLO11 emprega uma arquitetura de backbone e neck aprimorada, o que aumenta as capacidades de extração de características para uma detecção de objetos mais precisa e um desempenho de tarefas complexas.
  • Otimizado para Eficiência e Velocidade: O YOLO11 introduz designs arquitetônicos refinados e pipelines de treinamento otimizados, oferecendo velocidades de processamento mais rápidas e mantendo um equilíbrio ideal entre precisão e desempenho.
  • Maior Precisão com Menos Parâmetros: Com os avanços no design do modelo, o YOLO11m atinge uma Precisão Média Média (mAP) mais alta no conjunto de dados COCO, usando 22% menos parâmetros do que o YOLOv8m, tornando-o computacionalmente eficiente sem comprometer a precisão.
  • Adaptabilidade em Vários Ambientes: O YOLO11 pode ser implementado perfeitamente em vários ambientes, incluindo dispositivos de borda, plataformas de nuvem e sistemas que suportam GPUs NVIDIA, garantindo máxima flexibilidade.
  • Ampla Gama de Tarefas Suportadas: Seja detecção de objetos, segmentação de instâncias, classificação de imagens, estimativa de pose ou detecção de objetos orientados (OBB), o YOLO11 foi projetado para atender a um conjunto diversificado de desafios de visão computacional.

Tarefas e Modos Suportados

YOLO11 baseia-se na versátil gama de modelos estabelecida pelos lançamentos anteriores Ultralytics YOLO , oferecendo um suporte melhorado em várias tarefas de visão por computador:

ModeloNomes de arquivosTarefaInferênciaValidaçãoTreinamentoExportar
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptDetecção
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptSegmentação de Instância
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptPose/Keypoints
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptDetecção Orientada
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptClassificação

Esta tabela fornece uma visão geral das variantes do modelo YOLO11, mostrando sua aplicabilidade em tarefas específicas e compatibilidade com modos operacionais como Inferência, Validação, Treinamento e Exportação. Essa flexibilidade torna o YOLO11 adequado para uma ampla gama de aplicações em visão computacional, desde detecção em tempo real até tarefas complexas de segmentação.

Métricas de Desempenho

Desempenho

Consulte a Documentação de Detecção para exemplos de uso com estes modelos treinados em COCO, que incluem 80 classes pré-treinadas.

Modelotamanho
(pixels)
mAPval
50-95
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Consulte a Documentação de Segmentação para exemplos de uso com estes modelos treinados em COCO, que incluem 80 classes pré-treinadas.

Modelotamanho
(pixels)
mAPbox
50-95
mAPmask
50-95
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.99.7
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.133.0
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4113.2
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6132.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1296.4

Consulte a Documentação de Classificação para exemplos de uso com estes modelos treinados em ImageNet, que incluem 1000 classes pré-treinadas.

Modelotamanho
(pixels)
acc
top1
acc
top5
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B) a 224
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.02.80.5
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.06.71.6
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.011.64.9
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.014.16.2
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.029.613.6

Consulte a Documentação de Estimativa de Pose para exemplos de uso com estes modelos treinados em COCO, que incluem 1 classe pré-treinada, 'pessoa'.

Modelotamanho
(pixels)
mAPpose
50-95
mAPpose
50
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.4
YOLO11s-pose64058.986.390.5 ± 0.62,6 ± 0,09.923.1
YOLO11m-pose64064.989.4187,3 ± 0,84,9 ± 0,120.971.4
YOLO11l-pose64066.189.9247,7 ± 1,16,4 ± 0,126.190.3
YOLO11x-pose64069.591.1488,0 ± 13,912,1 ± 0,258.8202.8

Consulte a Documentação de Detecção Orientada para exemplos de uso com estes modelos treinados em DOTAv1, que incluem 15 classes pré-treinadas.

Modelotamanho
(pixels)
mAPteste
50
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLO11n-obb102478.4117,6 ± 0,84,4 ± 0,02.716.8
YOLO11s-obb102479.5219,4 ± 4,05,1 ± 0,09.757.1
YOLO11m-obb102480.9562,8 ± 2,910,1 ± 0,420.9182.8
YOLO11l-obb102481.0712,5 ± 5,013,5 ± 0,626.1231.2
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8519.1

Exemplos de uso

Esta seção fornece exemplos simples de treinamento e inferência do YOLO11. Para obter a documentação completa sobre estes e outros modos, consulte as páginas de documentação Predict, Train, Val e Export.

Observe que o exemplo abaixo é para modelos YOLO11 de Detecção para detecção de objetos. Para tarefas adicionais suportadas, consulte a documentação de Segment, Classify, OBB e Pose.

Exemplo

PyTorch pré-treinados *.pt modelos, bem como a configuração *.yaml os arquivos podem ser passados para o YOLO() class para criar uma instância de modelo em Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Comandos da CLI estão disponíveis para executar os modelos diretamente:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citações e Agradecimentos

Publicação Ultralytics YOLO11

A Ultralytics não publicou um artigo de pesquisa formal para o YOLO11 devido à natureza da rápida evolução dos modelos. Concentramo-nos em avançar a tecnologia e torná-la mais fácil de usar, em vez de produzir documentação estática. Para obter as informações mais atualizadas sobre a arquitetura, os recursos e o uso do YOLO, consulte nosso repositório GitHub e documentação.

Se você usar o YOLO11 ou qualquer outro software deste repositório em seu trabalho, cite-o usando o seguinte formato:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Observe que o DOI está pendente e será adicionado à citação assim que estiver disponível. Os modelos YOLO11 são fornecidos sob as licenças AGPL-3.0 e Enterprise.

FAQ

Quais são as principais melhorias no Ultralytics YOLO11 em comparação com as versões anteriores?

O Ultralytics YOLO11 introduz vários avanços significativos em relação aos seus antecessores. As principais melhorias incluem:

  • Extração de Recursos Aprimorada: O YOLO11 emprega uma arquitetura de backbone e neck aprimorada, aumentando as capacidades de extração de recursos para uma detecção de objetos mais precisa.
  • Eficiência e Velocidade Otimizadas: Projetos arquitetônicos refinados e pipelines de treinamento otimizados oferecem velocidades de processamento mais rápidas, mantendo um equilíbrio entre precisão e desempenho.
  • Maior Precisão com Menos Parâmetros: O YOLO11m alcança uma Precisão Média (mAP) mais alta no conjunto de dados COCO com 22% menos parâmetros do que o YOLOv8m, tornando-o computacionalmente eficiente sem comprometer a precisão.
  • Adaptabilidade em Vários Ambientes: O YOLO11 pode ser implementado em vários ambientes, incluindo dispositivos de borda, plataformas de nuvem e sistemas que suportam GPUs NVIDIA.
  • Ampla Gama de Tarefas Suportadas: O YOLO11 suporta diversas tarefas de visão computacional, como detecção de objetos, segmentação de instâncias, classificação de imagens, estimativa de pose e detecção de objetos orientados (OBB).

Como faço para treinar um modelo YOLO11 para detecção de objetos?

O treinamento de um modelo YOLO11 para detecção de objetos pode ser feito usando comandos Python ou CLI. Abaixo estão exemplos para ambos os métodos:

Exemplo

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Para obter instruções mais detalhadas, consulte a documentação Train.

Quais tarefas os modelos YOLO11 podem executar?

Os modelos YOLO11 são versáteis e suportam uma ampla gama de tarefas de visão computacional, incluindo:

  • Detecção de Objetos: Identificar e localizar objetos dentro de uma imagem.
  • Segmentação de Instâncias: Detectar objetos e delinear seus limites.
  • Classificação de Imagens: Categorizar imagens em classes predefinidas.
  • Estimativa de Pose: Detectar e rastrear pontos-chave em corpos humanos.
  • Detecção de Objetos Orientados (OBB): Detectar objetos com rotação para maior precisão.

Para obter mais informações sobre cada tarefa, consulte a documentação de Detecção, Segmentação de Instâncias, Classificação, Estimativa de Pose e Detecção Orientada.

Como o YOLO11 alcança maior precisão com menos parâmetros?

O YOLO11 alcança maior precisão com menos parâmetros por meio de avanços no design do modelo e técnicas de otimização. A arquitetura aprimorada permite uma extração e processamento de recursos eficientes, resultando em maior precisão média (mAP) em conjuntos de dados como o COCO, usando 22% menos parâmetros do que o YOLOv8m. Isso torna o YOLO11 computacionalmente eficiente sem comprometer a precisão, tornando-o adequado para implantação em dispositivos com recursos limitados.

O YOLO11 pode ser implementado em dispositivos edge?

Sim, o YOLO11 foi projetado para adaptabilidade em vários ambientes, incluindo dispositivos de borda. Sua arquitetura otimizada e capacidades de processamento eficientes o tornam adequado para implantação em dispositivos de borda, plataformas de nuvem e sistemas que suportam GPUs NVIDIA. Essa flexibilidade garante que o YOLO11 possa ser usado em diversas aplicações, desde a detecção em tempo real em dispositivos móveis até tarefas complexas de segmentação em ambientes de nuvem. Para obter mais detalhes sobre as opções de implantação, consulte a documentação Export.



📅C riado há 1 ano ✏️ Atualizado há 3 dias
glenn-jocherRizwanMunawarpderrengerY-T-GLaughing-qambitious-octopus

Comentários