Passer au contenu

YOLOv5 vs YOLO11 : Une comparaison technique complète

Lors du choix de l'architecture de vision par ordinateur adaptée à un nouveau projet, il est essentiel de comprendre l'évolution des modèles de pointe. La progression des architectures antérieures vers les frameworks unifiés modernes met en évidence des avancées significatives tant en termes d'efficacité algorithmique que d'expérience développeur. Ce guide propose une comparaison technique approfondie entre deux modèles phares développés par Ultralytics: le modèle pionnier YOLOv5 le modèle hautement perfectionné YOLO11.

Introduction aux modèles

Ces deux architectures représentent des étapes importantes dans le domaine de la détection d'objets en temps réel, offrant des avantages distincts en fonction de votre environnement de déploiement et de vos exigences héritées.

YOLOv5: le cheval de bataille de l'industrie

Sorti à l'été 2020, YOLOv5 est YOLOv5 devenu une norme industrielle grâce à son PyTorch , qui a considérablement réduit les obstacles à l'entrée pour la formation et le déploiement. Il s'est éloigné des cadres complexes Darknet C de ses prédécesseurs, offrant une approche Pythonic pour la construction de modèles.

YOLOv5 une base solide en matière de facilité d'utilisation et a introduit de puissantes méthodologies d'entraînement, notamment l'augmentation avancée des données mosaïques et l'ancrage automatique. Il reste extrêmement populaire auprès des chercheurs qui s'appuient sur une base de code bien documentée et largement testée.

En savoir plus sur YOLOv5

YOLO11: le cadre de vision unifié

S'appuyant sur des années de retours d'expérience et de recherche architecturale, YOLO11 introduit dans le cadre d'un système unifié capable de gérer nativement plusieurs tâches de vision. Allant au-delà des simples cadres de sélection, il a été entièrement conçu pour offrir une polyvalence et une efficacité maximales.

YOLO11 une expérience utilisateur simplifiée grâce à ultralytics Python , doté d'une API simple qui unifie détection d'objets, segmentation d'instances, classification, estimation de pose et boîtes englobantes orientées (OBB). Il offre un compromis très avantageux entre vitesse et précision, ce qui le rend idéal pour divers scénarios de déploiement dans le monde réel.

En savoir plus sur YOLO11

Plateforme intégrée

Les deux modèles bénéficient de l'écosystème bien entretenu fourni par la Ultralytics . Cet environnement intégré simplifie l'annotation des ensembles de données, la formation dans le cloud et l'exportation de modèles vers diverses cibles matérielles.

Comparaison des performances et des indicateurs

Une comparaison directe de ces modèles révèle comment les améliorations architecturales se traduisent par des gains de performances tangibles. Le tableau ci-dessous illustre la précision moyenne (mAP) évaluée sur COCO , ainsi que les vitesses GPU CPU GPU et le nombre de paramètres.

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

Analyse des résultats

Les mesures soulignent une nette amélioration des performances obtenues par YOLO11. Par exemple, le modèle YOLO11n (nano) atteint un mAP 39,5 % mAP 28,0 % pour YOLOv5n, tout en réduisant le temps CPU lors de l'exportation via ONNX. De plus, YOLO11 nettement moins de mémoire pendant l'entraînement que les modèles lourds basés sur des transformateurs, ce qui le rend très accessible pour un déploiement sur du matériel grand public et des appareils périphériques.

Différences architecturales

Les améliorations apportées aux performances de YOLO11 de plusieurs évolutions architecturales clés. Alors que YOLOv5 une structure CSPNet standard avec des modules C3, YOLO11 des blocs d'extraction de caractéristiques plus efficaces, tels que C2f puis C3k2, qui optimisent le flux de gradient et réduisent la charge de calcul.

YOLO11 dispose YOLO11 d'une tête fortement raffinée. S'éloignant de la conception basée sur l'ancrage des anciens modèles, Ultralytics nouvelles Ultralytics adoptent une approche sans ancrage. Cela réduit le nombre de prédictions de boîtes, rationalise le pipeline de post-traitement et améliore la capacité du modèle à généraliser à différentes échelles et différents rapports d'aspect. De plus, ces modèles offrent une efficacité de formation supérieure et des poids pré-entraînés facilement disponibles qui accélèrent la convergence des ensembles de données affinés.

Mise en œuvre et exemples de code

L'une des caractéristiques remarquables de Ultralytics est sa simplicité. Alors que YOLOv5 l'utilisation de torch.hub Pour une inférence rapide, YOLO11 encore plus loin avec l'unification ultralytics package python.

Entraînement avec YOLO11

Le chargement, l'entraînement et la validation d'un modèle nécessitent un minimum de code standard. L'API gère de manière transparente le réglage des hyperparamètres et la gestion des modèles.

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")

# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")

Inférence héritée avec YOLOv5

Si vous utilisez un pipeline plus ancien, YOLOv5 directement au mécanisme de chargement natif PyTorch, ce qui facilite son intégration dans les scripts d'inférence existants.

import torch

# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")

# Print prediction details to the console
results.print()

Flexibilité de déploiement

Les deux modèles prennent en charge de nombreux formats d'exportation. Que vous cibliez un NVIDIA à l'aide de TensorRT ou une iOS utilisant CoreML, le processus de déploiement est documenté de manière exhaustive et pris en charge par la communauté.

Cas d'utilisation idéaux

Le choix entre ces modèles dépend en grande partie du stade du cycle de vie de votre projet et de ses exigences spécifiques.

Quand choisir YOLOv5

  • Maintenance des bases de code héritées : si votre environnement de production est fortement personnalisé autour de la structure YOLOv5 ou de techniques spécifiques d'évolution des hyperparamètres.
  • Références académiques : lors de la publication de recherches nécessitant une comparaison directe avec les normes établies en matière de vision par ordinateur pour la période 2020-2022.

Quand choisir YOLO11

  • Projets multitâches : lorsque votre application nécessite une combinaison de tâches telles que l'estimation de pose et la segmentation d'instances à l'aide d'une API unique et unifiée.
  • Déploiements en périphérie : pour les scénarios d'informatique en périphérie où il est essentiel d'exploiter au maximum mAP un budget de calcul donné (FLOP).
  • Solutions d'IA commerciales : idéales pour les applications d'entreprise dans les domaines de la vente au détail et de la sécurité, tirant parti du soutien robuste de la Ultralytics .

La nouvelle génération : Ultralytics

Si YOLO11 un excellent compromis entre vitesse et précision, le domaine de l'intelligence artificielle évolue rapidement. Nous recommandons vivement aux développeurs qui se lancent aujourd'hui dans de nouveaux projets d'explorer la dernière norme en matière d'IA visuelle : Ultralytics .

Sorti en janvier 2026, YOLO26 introduit des avancées révolutionnaires spécialement conçues pour répondre aux besoins actuels en matière de déploiement :

  • Conception NMS de bout en bout : s'appuyant sur les concepts initialement développés dans YOLOv10, YOLO26 est nativement de bout en bout. Il élimine le besoin d'un post-traitement par suppression non maximale (NMS), ce qui simplifie considérablement les pipelines de déploiement et réduit la latence.
  • Optimiseur MuSGD : inspiré des innovations en matière de formation LLM issues de modèles tels que Kimi K2 de Moonshot AI, cet hybride de SGD Muon garantit une formation incroyablement stable et une convergence nettement plus rapide.
  • CPU sans précédent : en supprimant la perte focale de distribution (DFL), YOLO26 atteint CPU jusqu'à 43 % plus rapide, ce qui en fait le choix idéal pour les appareils et environnements périphériques sans GPU dédiés.
  • Fonctions de perte avancées : l'intégration de ProgLoss et STAL apporte des améliorations notables dans la reconnaissance des petits objets, ce qui est essentiel pour l'analyse des drones, l'IoT et la robotique.
  • Améliorations spécifiques à certaines tâches : il introduit des optimisations spécialisées, telles que l'estimation de la vraisemblance logarithmique résiduelle (RLE) pour la pose et la perte d'angle spécialisée pour les boîtes englobantes orientées, garantissant des performances supérieures pour toutes les tâches de vision par ordinateur.

En savoir plus sur YOLO26

Pour les utilisateurs intéressés par des architectures spécialisées allant au-delà de la détection d'objets standard, vous pouvez également explorer des modèles tels que RT-DETR pour la détection basée sur les transformateurs, ou YOLO pour le suivi et la détection à vocabulaire ouvert. L'adoption de ces outils bien entretenus et hautement optimisés garantit que vos pipelines de vision par ordinateur restent efficaces, évolutifs et à la pointe de la technologie.


Commentaires