YOLO11 YOLOv5: évolution de la détection d'objets en temps réel
L'évolution de la famille YOLO You Only Look Once) représente une chronologie des innovations rapides dans le domaine de la vision par ordinateur. YOLOv5, lancé en 2020 par Ultralytics, a révolutionné le domaine en rendant accessible la détection d'objets haute performance grâce à une API incroyablement conviviale et à PyTorch robuste. Fin 2024, YOLO11 est apparu comme un outil puissant et perfectionné, s'appuyant sur des années de retours d'expérience et d'avancées architecturales pour offrir une efficacité et une précision supérieures.
Cette comparaison explore les avancées techniques réalisées entre ces deux modèles emblématiques, aidant les développeurs à comprendre quand maintenir les systèmes existants et quand passer à la dernière architecture.
Analyse des métriques de performance
Le bond en avant réalisé YOLOv5 YOLO11 particulièrement visible à travers leurs performances sur des benchmarks standard. YOLO11 des optimisations significatives qui lui permettent d'atteindre une précision moyenne (mAP) plus élevée tout en maintenant ou en réduisant la charge de calcul.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Points clés à retenir
- Gains en précision : YOLO11n atteint un mAP remarquable de 39,5 %, surpassant largement YOLOv5n (28,0 % mAP). Cela rend le plus petit YOLO11 viable pour des tâches complexes qui nécessitaient auparavant des modèles plus volumineux et plus lents.
- Efficacité de calcul : malgré leur plus grande précision, YOLO11 nécessitent généralement moins de FLOP. Par exemple, YOLO11x utilise environ 20 % de FLOP en moins que YOLOv5x tout en offrant des résultats de détection supérieurs.
- CPU :ONNX CPU pour YOLO11 nettement plus rapides, ce qui est un facteur essentiel pour les déploiements sur des appareils périphériques tels que le Raspberry Pi.
YOLO11 : Efficacité et polyvalence raffinées
Sorti en septembre 2024, YOLO11 l'aboutissement des améliorations itératives apportées à laYOLO Ultralytics YOLO . Il a été conçu non seulement pour la détection brute, mais aussi pour prendre en charge un pipeline de vision unifié comprenant la segmentation, l'estimation de la pose et les boîtes englobantes orientées (OBB).
Spécifications techniques :
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2024-09-27
- Liens :GitHub, Docs
Points clés de l'architecture
YOLO11 le bloc C3k2, une version améliorée du goulot d'étranglement Cross Stage Partial (CSP) qui optimise le flux de gradient. De plus, il utilise C2PSA (Cross-Stage Partial with Spatial Attention) dans sa tête de détection, améliorant ainsi la capacité du modèle à se concentrer sur les caractéristiques essentielles dans les scènes encombrées. Contrairement à YOLOv5, YOLO11 une architecture sans ancrage, ce qui simplifie le processus d'entraînement en éliminant le besoin de calculer des boîtes d'ancrage pour des ensembles de données spécifiques, ce qui se traduit par une meilleure généralisation.
Pourquoi choisir YOLO11 ?
YOLO11 le choix recommandé pour la plupart des nouvelles applications commerciales. Son équilibre entre haute précision (mAP) et faible consommation de ressources le rend idéal pour l'analyse en temps réel dans les domaines de la vente au détail, des villes intelligentes et des soins de santé.
YOLOv5: la norme industrielle
YOLOv5, lancé mi-2020, a établi la norme en matière de facilité d'utilisation dans le secteur de l'IA. Il s'agit du premier modèle à avoir rendu les opérations « train, val, deploy » (entraînement, validation, déploiement) fluides au sein d'un seul référentiel, établissant ainsi la philosophie centrée sur l'utilisateur qui Ultralytics aujourd'hui la renommée Ultralytics .
Spécifications techniques :
- Auteurs : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- Liens :GitHub, Docs
Points clés de l'architecture
YOLOv5 une infrastructure CSPDarknet et est un détecteur basé sur des ancres. Bien que très efficaces, les approches basées sur des ancres peuvent être sensibles au réglage des hyperparamètres concernant les dimensions des boîtes. Malgré son âge, YOLOv5 un outil fiable, en particulier dans les scénarios où le matériel ancien ou les certifications logicielles spécifiques limitent les projets à des versions plus anciennes du framework.
Différences architecturales et formation
Écosystème et facilité d'utilisation
L'un des principaux avantages de ces deux modèles réside dans leur intégration à Ultralytics . Que vous utilisiez YOLOv5 YOLO11, vous bénéficiez d'une API unifiée, d'une documentation complète et d'une prise en charge de l'exportation transparente des modèles vers des formats tels que TensorRT, CoreML et OpenVINO.
Cependant, YOLO11 des dernières mises à jour dans le domaine ultralytics Python , offrant une intégration plus étroite avec des outils tels que le Plateforme Ultralytics pour la formation au cloud et la gestion des ensembles de données.
Efficacité de l'entraînement
YOLO11 converge YOLO11 plus rapidement pendant l'entraînement grâce à son architecture et ses fonctions de perte améliorées. Ses besoins en mémoire sont également hautement optimisés. Contrairement aux modèles de transformateurs massifs qui nécessitent une mémoire VRAM importante, YOLO11 et YOLOv5) peuvent être entraînés efficacement sur des GPU grand public.
Voici comment vous pouvez entraîner un YOLO11 à l'aide duPython Ultralytics :
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset
# fast, efficient, and low-memory usage
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Polyvalence
Alors que YOLOv5 mis à jour plus tard dans son cycle de vie pour prendre en charge la segmentation et la classification, YOLO11 a été conçu dès le départ pour ces tâches. Si votre projet nécessite de passer de la détection d'objets à la segmentation d'instances, à l'estimation de poses ou aux boîtes englobantes orientées (OBB), YOLO11 une expérience plus cohérente et plus performante dans toutes ces modalités.
Conclusion : quel modèle utiliser ?
Pour la grande majorité des utilisateurs qui démarrent un projet aujourd'hui, YOLO11 est clairement le grand gagnant. Il offre une amélioration « gratuite » : une meilleure précision et une vitesse similaire ou supérieure sans complexité accrue. YOLOv5 une excellente référence pour la recherche et la maintenance des anciens systèmes, mais il est à la traîne dans les comparaisons brutes entre les différentes architectures modernes.
À la pointe de la technologie : YOLO26
Si vous recherchez la toute dernière technologie en matière de vision par ordinateur (à partir de janvier 2026), vous devriez vous intéresser à YOLO26.
YOLO26 s'appuie sur les fondements de YOLO11 introduit une conception de bout en bout NMS, supprimant ainsi le besoin d'un post-traitement par suppression non maximale. Il en résulte un déploiement plus simple et des vitesses d'inférence plus rapides, en particulier sur les appareils périphériques CPU. Grâce à des innovations telles que l'optimiseur MuSGD et ProgLoss, YOLO26 offre CPU jusqu'à 43 % plus rapide que les générations précédentes.
Autres modèles à explorer
- RT-DETR: Détecteur à transformateur qui excelle en matière de précision lorsque la vitesse en temps réel est moins critique.
- YOLO: idéal pour la détection à vocabulaire ouvert lorsque vous devez detect qui ne sont pas présents dans l'ensemble de données d'entraînement.