YOLOv5 vs YOLO11 : Une comparaison technique complète
Lors du choix de l'architecture de vision par ordinateur adaptée à un nouveau projet, il est essentiel de comprendre l'évolution des modèles de pointe. La progression des architectures antérieures vers les frameworks unifiés modernes met en évidence des avancées significatives tant en termes d'efficacité algorithmique que d'expérience développeur. Ce guide propose une comparaison technique approfondie entre deux modèles phares développés par Ultralytics: le modèle pionnier YOLOv5 le modèle hautement perfectionné YOLO11.
Introduction aux modèles
Ces deux architectures représentent des jalons importants dans le domaine de la détection d'objets en temps réel, offrant des avantages distincts en fonction de votre environnement de déploiement et de vos exigences de compatibilité.
YOLOv5: le cheval de bataille de l'industrie
Sorti à l'été 2020, YOLOv5 est YOLOv5 devenu une norme industrielle grâce à son PyTorch , qui a considérablement réduit les obstacles à l'entrée pour la formation et le déploiement. Il s'est éloigné des cadres complexes Darknet C de ses prédécesseurs, offrant une approche Pythonic pour la construction de modèles.
- Auteurs : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- GitHub :ultralytics/yolov5
- Docs :Documentation YOLOv5
YOLOv5 une base solide en matière de facilité d'utilisation et a introduit de puissantes méthodologies d'entraînement, notamment l'augmentation avancée des données mosaïques et l'ancrage automatique. Il reste extrêmement populaire auprès des chercheurs qui s'appuient sur une base de code bien documentée et largement testée.
YOLO11: le cadre de vision unifié
S'appuyant sur des années de retours d'expérience et de recherche architecturale, YOLO11 a été introduit dans le cadre d'un framework unifié capable de gérer nativement plusieurs tâches de vision. Allant au-delà des simples boîtes englobantes, il a été conçu dès le départ pour une polyvalence et une efficacité maximales.
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2024-09-27
- GitHub :ultralytics/ultralytics
- Docs :Documentation YOLO11
YOLO11 une expérience utilisateur simplifiée grâce à ultralytics Python , doté d'une API simple qui unifie détection d'objets, segmentation d'instances, classification, estimation de pose et boîtes englobantes orientées (obb). Il atteint un compromis très favorable entre vitesse et précision, ce qui le rend idéal pour divers scénarios de déploiement réels.
Plateforme intégrée
Les deux modèles bénéficient de l'écosystème bien entretenu fourni par la Plateforme Ultralytics. Cet environnement intégré simplifie l'annotation des jeux de données, l'entraînement dans le cloud et l'exportation de modèles vers diverses cibles matérielles.
Comparaison des performances et des indicateurs
Une comparaison directe de ces modèles révèle comment les raffinements architecturaux se traduisent par des gains de performance tangibles. Le tableau ci-dessous illustre la précision moyenne (mAP) évaluée sur le jeu de données COCO, ainsi que les vitesses d'inférence CPU et GPU et le nombre de paramètres.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
Analyse des résultats
Les mesures soulignent une nette amélioration des performances obtenues par YOLO11. Par exemple, le modèle YOLO11n (nano) atteint un mAP 39,5 % mAP 28,0 % pour YOLOv5n, tout en réduisant le temps CPU lors de l'exportation via ONNX. De plus, YOLO11 nettement moins de mémoire pendant l'entraînement que les modèles lourds basés sur des transformateurs, ce qui le rend très accessible pour un déploiement sur du matériel grand public et des appareils périphériques.
Différences architecturales
Les améliorations apportées aux performances de YOLO11 de plusieurs évolutions architecturales clés. Alors que YOLOv5 une structure CSPNet standard avec des modules C3, YOLO11 des blocs d'extraction de caractéristiques plus efficaces, tels que C2f puis C3k2, qui optimisent le flux de gradient et réduisent la charge de calcul.
YOLO11 dispose YOLO11 d'une tête fortement raffinée. S'éloignant de la conception basée sur l'ancrage des anciens modèles, Ultralytics nouvelles Ultralytics adoptent une approche sans ancrage. Cela réduit le nombre de prédictions de boîtes, rationalise le pipeline de post-traitement et améliore la capacité du modèle à généraliser à différentes échelles et différents rapports d'aspect. De plus, ces modèles offrent une efficacité de formation supérieure et des poids pré-entraînés facilement disponibles qui accélèrent la convergence des ensembles de données affinés.
Mise en œuvre et exemples de code
L'une des caractéristiques remarquables de Ultralytics est sa simplicité. Alors que YOLOv5 l'utilisation de torch.hub Pour une inférence rapide, YOLO11 encore plus loin avec l'unification ultralytics package python.
Entraînement avec YOLO11
Le chargement, l'entraînement et la validation d'un modèle nécessitent un minimum de code standard. L'API gère de manière transparente le réglage des hyperparamètres et la gestion des modèles.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")
# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")
Inférence héritée avec YOLOv5
Si vous utilisez un pipeline plus ancien, YOLOv5 directement au mécanisme de chargement natif PyTorch, ce qui facilite son intégration dans les scripts d'inférence existants.
import torch
# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")
# Print prediction details to the console
results.print()
Flexibilité de déploiement
Les deux modèles prennent en charge de nombreux formats d'exportation. Que vous cibliez un NVIDIA Jetson utilisant TensorRT ou une application iOS utilisant CoreML, le processus de déploiement est entièrement documenté et soutenu par la communauté.
Cas d'utilisation idéaux
Le choix entre ces modèles dépend en grande partie de l'étape du cycle de vie de votre projet et de ses exigences spécifiques.
Quand choisir YOLOv5
- Maintien des bases de code existantes : Si votre environnement de production est fortement personnalisé autour de la structure du dépôt YOLOv5 ou de techniques spécifiques d'évolution des hyperparamètres.
- Références académiques: Lors de la publication de recherches nécessitant une comparaison directe avec les standards établis de la vision par ordinateur de 2020-2022.
Quand choisir YOLO11
- Projets multi-tâches : Lorsque votre application nécessite un mélange de tâches telles que l'estimation de pose et la segmentation d'instances à l'aide d'une API unique et unifiée.
- Déploiements en périphérie : Pour les scénarios d'informatique en périphérie où il est crucial de maximiser le mAP pour un budget de calcul (FLOPs) donné.
- Solutions d'IA Commerciales : Idéal pour les applications d'entreprise dans le commerce de détail et la sécurité, tirant parti du support robuste de la Plateforme Ultralytics.
La nouvelle génération : Ultralytics
Si YOLO11 un excellent compromis entre vitesse et précision, le domaine de l'intelligence artificielle évolue rapidement. Nous recommandons vivement aux développeurs qui se lancent aujourd'hui dans de nouveaux projets d'explorer la dernière norme en matière d'IA visuelle : Ultralytics .
Sorti en janvier 2026, YOLO26 introduit des avancées révolutionnaires spécialement conçues pour répondre aux besoins actuels en matière de déploiement :
- Conception de bout en bout sans NMS : S'appuyant sur les concepts initiés pour la première fois dans YOLOv10, YOLO26 est nativement de bout en bout. Il élimine le besoin de post-traitement de la suppression non maximale (NMS), simplifiant considérablement les pipelines de déploiement et réduisant la latence.
- Optimiseur MuSGD : Inspiré par les innovations en matière d'entraînement des LLM de modèles comme Kimi K2 de Moonshot AI, cet hybride de SGD et de Muon assure un entraînement incroyablement stable et une convergence considérablement plus rapide.
- Vitesse CPU sans précédent : En supprimant la Distribution Focal Loss (DFL), YOLO26 atteint une inférence CPU jusqu'à 43 % plus rapide, ce qui en fait le meilleur choix absolu pour les appareils edge et les environnements sans GPU dédiés.
- Fonctions de perte avancées : L'intégration de ProgLoss et STAL apporte des améliorations notables à la reconnaissance des petits objets, ce qui est essentiel pour l'analyse de drones, l'IoT et la robotique.
- Améliorations spécifiques aux tâches: Il introduit des optimisations spécialisées, telles que l'estimation de la log-vraisemblance résiduelle (RLE) pour la pose et une fonction de perte angulaire spécialisée pour les boîtes englobantes orientées, garantissant des performances supérieures pour toutes les tâches de vision par ordinateur.
Pour les utilisateurs intéressés par des architectures spécialisées allant au-delà de la détection d'objets standard, vous pouvez également explorer des modèles tels que RT-DETR pour la détection basée sur les transformateurs, ou YOLO pour le suivi et la détection à vocabulaire ouvert. L'adoption de ces outils bien entretenus et hautement optimisés garantit que vos pipelines de vision par ordinateur restent efficaces, évolutifs et à la pointe de la technologie.