Ir para o conteúdo

YOLOv5 YOLO11: Unindo o legado e a inovação na deteção de objetos

A evolução da arquitetura YOLO You Only Look Once) tem sido uma jornada marcante no campo da visão computacional. Da confiabilidade fundamental do YOLOv5 eficiência avançada do YOLO11, cada iteração ampliou os limites de velocidade e precisão. Este guia fornece uma comparação técnica detalhada para ajudar desenvolvedores, pesquisadores e engenheiros a escolher o modelo certo para suas necessidades específicas de implementação.

Visão Geral do Modelo

YOLOv5: O padrão da indústria

Lançado em 2020 por Glenn Jocher e Ultralytics, YOLOv5 rapidamente se tornou o padrão ouro para a detecção prática de objetos. Foi o primeiro YOLO implementado nativamente no PyTorch, tornando-o excepcionalmente acessível para a comunidade de IA em geral. O equilíbrio entre facilidade de uso, pipelines de treinamento robustos e flexibilidade de implementação consolidou o seu lugar em milhares de aplicações académicas e industriais.

Saiba mais sobre o YOLOv5

YOLO11: O sucessor refinado

YOLO11, lançado em 2024, representa um salto significativo no Ultralytics . Com base nos avanços arquitetónicos do YOLOv8, apresenta uma estrutura central e principal refinada, concebida para uma extração de características e eficiência superiores. YOLO11 em maximizar a relação precisão-computação, proporcionando uma precisão média (mAP) mais elevada com menos parâmetros em comparação com os seus antecessores.

Saiba mais sobre o YOLO11.

Última recomendação

Embora YOLO11 melhorias significativas em relação YOLOv5, os desenvolvedores que iniciarem novos projetos em 2026 também devem avaliar o YOLO26. Ele apresenta um design nativo de ponta a ponta (removendo NMS), um otimizador MuSGD inovador e CPU até 43% mais rápida, tornando-o a melhor escolha para a implantação de ponta moderna.

Comparação da Arquitetura Técnica

Backbone e Extração de Características

YOLOv5 utiliza uma espinha dorsal CSPDarknet. Este design de rede parcial entre estágios foi revolucionário para reduzir a redundância computacional, mantendo um fluxo de gradiente rico. Ele equilibra efetivamente a profundidade e a largura, permitindo que o modelo aprenda características complexas sem explodir a contagem de parâmetros.

YOLO11 evolui este conceito com uma espinha dorsal CSP aprimorada (C3k2) e introduz mecanismos de atenção espacial melhorados. A arquitetura é especificamente ajustada para capturar detalhes finos, o que aumenta significativamente o desempenho na deteção de pequenos objetos. Este design refinado permite YOLO11 alcance maior precisão com um modelo menor.

Cabeçalho de Detecção

A cabeça de deteção em YOLOv5 é baseada em âncoras, dependendo de caixas de âncora predefinidas para prever a localização dos objetos. Embora eficaz, essa abordagem requer um ajuste cuidadoso dos hiperparâmetros das dimensões das âncoras para conjuntos de dados personalizados.

YOLO11 adota um cabeçote de detecção sem âncora. Essa abordagem moderna simplifica o processo de treinamento, prevendo diretamente os centros e as dimensões dos objetos, eliminando a necessidade de cálculos de caixas de âncora. Isso não apenas otimiza o pipeline de treinamento, mas também melhora a generalização entre diversas formas e proporções de objetos.

Métricas de Desempenho

A tabela a seguir destaca as diferenças de desempenho entre YOLOv5 YOLO11. Uma observação importante é o compromisso entre velocidade e precisão. YOLO11 alcança YOLO11 mAP mais altas, mantendo velocidades de inferência competitivas ou superiores, especialmente em GPU .

Modelotamanho
(pixels)
mAPval
50-95
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLOv5n64028.073.61.121.94.5
YOLOv5s64037.4120.71.927.216.5
YOLOv5m64045.4233.94.0321.249.0
YOLOv5l64049.0408.46.6146.5109.1
YOLOv5x64050.7763.211.8986.7205.7
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

Análise:

  • Precisão: O YOLO11n (Nano) atinge uns impressionantes 39,5% mAP, superando significativamente os 28,0% do YOLOv5n. Isto torna YOLO11 escolha muito superior para aplicações leves que exigem alta precisão.
  • Velocidade: YOLO11 demonstram velocidades CPU mais rápidas em ONNX , o que é crucial para a implementação emGPU
  • Eficiência: YOLO11 esses ganhos com uma contagem de parâmetros comparável ou frequentemente inferior (por exemplo, YOLO11x vs YOLOv5x), demonstrando a eficiência das suas otimizações arquitetónicas.

Treinamento e Ecossistema

Facilidade de Uso

Ambos os modelos beneficiam do renomado Ultralytics , priorizando a experiência do programador.

  • YOLOv5 estabeleceu o padrão para "começar o treino em 5 minutos" com a sua estrutura intuitiva e confiança no padrão PyTorch .
  • YOLO11 integra-se perfeitamente no sistema unificado ultralytics Python . Este pacote fornece uma API consistente para todas as tarefas, o que significa que a mudança de Detecção para Segmentação de Instância ou Estimativa de Pose requer a alteração de apenas um argumento de string.

Eficiência do Treinamento

YOLO11 rotinas de treino otimizadas que muitas vezes levam a uma convergência mais rápida. Recursos como o aumento de mosaico foram refinados, e o design sem âncora remove a etapa de pré-processamento da evolução da âncora automática encontrada no YOLOv5. Além disso, ambos os modelos apresentam um uso de memória significativamente menor durante o treino em comparação com detectores baseados em transformadores, como o RT-DETR, permitindo tamanhos de lote maiores em GPUs de consumo.

Formação com a Ultralytics

O treinamento YOLO11 incrivelmente simples usando o Python . A mesma sintaxe se aplica ao YOLOv5 do ultralytics package.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Versatilidade

Enquanto YOLOv5 suporte para segmentação e classificação mais tarde no seu ciclo de vida, YOLO11 projetado desde o início como um aprendizado multitarefa. Ele suporta nativamente:

  • Detecção de Objetos
  • Segmentação de Instância
  • Classificação de Imagem
  • Estimativa de Pose
  • Caixa Delimitadora Orientada (OBB)

Isso torna YOLO11 mais versátil, semelhante a um "canivete suíço", para pipelines complexos de visão computacional, nos quais vários tipos de análise são necessários simultaneamente.

Casos de Uso Ideais

Quando Escolher YOLOv5

  • Sistemas legados: Se você tem um pipeline de produção existente construído em torno do formato YOLOv5 específico YOLOv5 ou requirements.txt, continuar com YOLOv5 estabilidade.
  • Restrições específicas de hardware: Em hardware extremamente antigo ou implementações específicas de FPGA, a arquitetura mais simples do YOLOv5 ter fluxos de bits otimizados existentes.
  • Replicação da pesquisa: Para reproduzir artigos académicos de 2020-2023 que utilizaram YOLOv5 base.

Quando escolher o YOLO11

  • Implementação de IA de ponta: a excelente relação velocidade-precisão torna YOLO11 para dispositivos como o NVIDIA ou o Raspberry Pi, especialmente para processamento de vídeo em tempo real.
  • Requisitos de alta precisão: Aplicações em imagens médicas ou deteção de defeitos, onde cada ponto percentual de mAP .
  • Aplicações multitarefas: projetos que exigem estimativa de pose (por exemplo, análise desportiva) ou caixas delimitadoras giradas (por exemplo, levantamento aéreo) se beneficiam do suporte nativo YOLO11.
  • Formação em nuvem: Utilização da Ultralytics para gestão simplificada de conjuntos de dados e formação de modelos.

Conclusão

Tanto YOLOv5 YOLO11 provas do compromisso Ultralytics com a excelência em código aberto. YOLOv5 continua a ser uma ferramenta fiável e comprovada. No entanto, YOLO11 oferece uma atualização atraente com seus refinamentos arquitetónicos, precisão superior e suporte a tarefas mais amplas.

Para os programadores que olham para o futuro, a escolha é clara: YOLO11 a vantagem de desempenho necessária para aplicações modernas. Para aqueles que buscam o que há de mais avançado, também recomendamos fortemente explorar o YOLO26, que introduz a detecção de ponta a ponta NMS para uma implementação ainda mais simples.

Explore a Documentação do YOLO26

Outros modelos que podem ser do seu interesse incluem YOLOv10 para pesquisa de desempenho em tempo real ou YOLO para deteção de vocabulário aberto.


Comentários