YOLO26 vs. YOLOv5 : Architecture, vitesse et cas d'utilisation comparés
L'évolution des modèles de détection d'objets a été rapide et transformative. Dans cette comparaison, nous explorons les caractéristiques distinctes d'Ultralytics YOLO26 et d'Ultralytics YOLOv5, en examinant comment les avancées en matière d'architecture et de méthodologies d'entraînement ont façonné leurs capacités. Alors que YOLOv5 reste un pilier fondamental dans la communauté de la vision par ordinateur, le nouveau YOLO26 introduit des efficacités révolutionnaires conçues pour le déploiement en périphérie de nouvelle génération et l'inférence à haute vitesse.
Aperçu du modèle
Les deux modèles représentent des jalons significatifs dans l'histoire de l'architecture YOLO (You Only Look Once). Ils partagent un engagement envers la performance en temps réel et la facilité d'utilisation, mais ils servent des ères légèrement différentes du développement de l'IA.
Ultralytics YOLO26
YOLO26 est la dernière itération d'Ultralytics, lancée en janvier 2026. Il représente un virage vers des architectures nativement de bout en bout qui éliminent le besoin de post-traitement par suppression non maximale (NMS). Conçu pour l'informatique en périphérie, il simplifie le déploiement tout en repoussant les limites de la précision.
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2026-01-14
- Docs :Documentation YOLO26
- Innovation clé : Détection de bout en bout sans NMS, suppression de DFL et optimiseur MuSGD.
Ultralytics YOLOv5
YOLOv5 a été lancé mi-2020 et est rapidement devenu la norme de l'industrie pour son équilibre entre vitesse, précision et ingénierie conviviale. Il a introduit l'écosystème PyTorch à des millions de développeurs et reste largement utilisé dans les environnements de production où la stabilité et le support des systèmes existants sont primordiaux.
- Auteur : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- Docs :Documentation YOLOv5
- Innovation clé : Implémentation PyTorch conviviale, augmentation mosaïque et mécanismes d'auto-ancrage.
Différences architecturales
La transition de YOLOv5 à YOLO26 implique des changements fondamentaux dans la manière dont les objets sont détectés et dont le modèle est optimisé pendant l'entraînement.
De bout en bout vs. Post-traitement
YOLOv5 s'appuie sur la suppression non maximale (NMS) pour filtrer les boîtes englobantes dupliquées. Bien qu'efficace, la NMS est un processus heuristique qui peut constituer un goulot d'étranglement lors de l'inférence, en particulier sur les appareils périphériques avec des cycles CPU limités. Elle introduit des hyperparamètres comme les seuils IoU qui doivent être ajustés pour des jeux de données spécifiques.
En revanche, YOLO26 est nativement de bout en bout. En adoptant une conception initialement introduite dans YOLOv10, YOLO26 prédit l'ensemble exact d'objets directement à partir de la sortie du réseau sans nécessiter de NMS. Cela simplifie considérablement le pipeline de déploiement, car la sortie du modèle est le résultat final.
Simplicité de déploiement
La suppression de la NMS dans YOLO26 signifie que vous n'avez plus besoin de compiler des étapes de post-traitement complexes lors de l'exportation vers des formats comme CoreML ou TensorRT. La sortie brute du modèle est prête à l'emploi, ce qui réduit la latence et la complexité d'intégration.
Fonctions de perte et optimisation
YOLO26 introduit ProgLoss (équilibrage progressif de la perte) et STAL (attribution d'étiquettes sensible aux petites cibles). Ces innovations ciblent spécifiquement les faiblesses courantes de la détection d'objets, telles que la difficulté à détecter de petits objets dans les images aériennes ou les scènes encombrées. ProgLoss ajuste dynamiquement le poids des différentes composantes de la perte pendant l'entraînement pour stabiliser la convergence.
De plus, YOLO26 utilise l'optimiseur MuSGD, un hybride de SGD et de l'optimiseur Muon inspiré des techniques d'entraînement des grands modèles linguistiques (LLM). Cela apporte la stabilité de l'entraînement des LLM à la vision par ordinateur, ce qui se traduit par une convergence plus rapide et des poids plus robustes.
Architecture de tête simplifiée
Un changement majeur dans YOLO26 est la suppression de la Distribution Focal Loss (DFL). Bien que la DFL ait contribué à la précision des boîtes dans les itérations précédentes comme YOLOv8, elle ajoutait une surcharge computationnelle et une complexité lors de l'exportation. En affinant la perte de régression, YOLO26 atteint une haute précision sans DFL, le rendant jusqu'à 43 % plus rapide sur les CPU par rapport aux générations précédentes, une métrique cruciale pour les applications d'IA en périphérie.
Comparaison des métriques de performance
Le tableau suivant compare les performances de YOLO26 et YOLOv5 sur le jeu de données COCO. YOLO26 démontre des gains significatifs en précision (mAP) et en vitesse d'inférence, en particulier sur le matériel CPU où ses optimisations architecturales brillent.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Points clés à retenir
- Bond en précision : YOLO26n (Nano) atteint un mAP de 40.9, surpassant significativement le YOLOv5n à 28.0 mAP. Cela permet aux utilisateurs de déployer des modèles plus petits sans sacrifier la qualité de la détection.
- Efficacité CPU : La simplification architecturale de YOLO26 se traduit par une inférence CPU drastiquement plus rapide. Par exemple, YOLO26n fonctionne à environ 39 ms sur CPU, contre environ 74 ms pour YOLOv5n, ce qui le rend idéal pour les déploiements sur Raspberry Pi ou mobiles.
- Efficacité des paramètres : YOLO26 atteint une précision plus élevée avec moins de paramètres dans de nombreux cas (par exemple, YOLO26l a 24,8 millions de paramètres contre 53,2 millions pour YOLOv5l), réduisant l'empreinte mémoire pendant l'entraînement et l'inférence.
Formation et écosystème
Les deux modèles bénéficient de l'écosystème robuste d'Ultralytics, mais YOLO26 tire parti d'outils plus récents et d'intégrations plus profondes.
Facilité d'utilisation et API
Les deux modèles utilisent le ultralytics package Python unifié (YOLOv5 était initialement autonome mais est maintenant intégré). Cela garantit que le passage de l'un à l'autre est aussi simple que de changer une chaîne de nom de modèle.
from ultralytics import YOLO
# Load YOLO26 for state-of-the-art performance
model_26 = YOLO("yolo26n.pt")
model_26.train(data="coco8.yaml", epochs=100)
# Load YOLOv5 for legacy comparison
model_v5 = YOLO("yolov5nu.pt")
model_v5.train(data="coco8.yaml", epochs=100)
Fonctionnalités d'entraînement avancées
YOLO26 prend en charge des stratégies d'augmentation de données améliorées et le nouvel optimiseur MuSGD, qui aide à échapper aux minima locaux plus efficacement que le SGD standard utilisé dans YOLOv5. De plus, YOLO26 propose des améliorations spécifiques aux tâches, telles que l'estimation de la vraisemblance logarithmique résiduelle (RLE) pour l'estimation de pose et des pertes angulaires spécialisées pour les tâches d'Oriented Bounding Box (OBB), des fonctionnalités qui étaient absentes ou moins raffinées à l'ère de YOLOv5.
Les utilisateurs peuvent également tirer parti de la plateforme Ultralytics pour gérer les jeux de données, entraîner des modèles dans le cloud et les déployer de manière transparente sur divers points d'accès.
Cas d'utilisation idéaux
Quand choisir YOLO26
YOLO26 est le choix recommandé pour presque tous les nouveaux projets en raison de son rapport précision/latence supérieur.
- Edge AI & IoT : Avec la suppression du DFL et l'inférence sans NMS, YOLO26 est parfait pour les appareils comme NVIDIA Jetson, Raspberry Pi ou les téléphones mobiles où l'efficacité du CPU/NPU est critique.
- Détection de petits objets : Grâce à STAL, YOLO26 excelle dans des scénarios tels que l'imagerie par drone ou la détection de défauts dans la fabrication, où les cibles sont souvent minuscules par rapport à la taille de l'image.
- Analyse vidéo en temps réel : Les améliorations de vitesse permettent de traiter des fréquences d'images plus élevées, ce qui est essentiel pour la surveillance du trafic ou l'analyse sportive.
Quand choisir YOLOv5
Bien que plus ancien, YOLOv5 conserve une niche :
- Systèmes hérités : Les pipelines existants, construits strictement autour de la structure du dépôt YOLOv5 de l'ère 2020, peuvent trouver plus facile de maintenir l'ancien modèle plutôt que de migrer.
- Prise en charge matérielle la plus large : Étant plus ancien, YOLOv5 a été porté sur pratiquement toutes les plateformes imaginables, y compris des microcontrôleurs très obscurs qui pourraient ne pas encore avoir de support optimisé pour les architectures plus récentes.
Conclusion
Alors que YOLOv5 a jeté les bases de la détection d'objets moderne avec son accessibilité et sa fiabilité, YOLO26 représente un bond en avant significatif. En adoptant une conception de bout en bout sans NMS, en optimisant pour le matériel périphérique et en intégrant des techniques d'entraînement avancées comme MuSGD et ProgLoss, YOLO26 offre une mise à niveau convaincante pour les développeurs recherchant les meilleures performances.
Pour la plupart des utilisateurs, le choix est clair : YOLO26 offre la vitesse, la précision et la polyvalence nécessaires aux applications de vision par ordinateur exigeantes d'aujourd'hui.
Explorer d'autres modèles
Si vous êtes intéressé par l'exploration d'autres architectures, consultez YOLO11, le prédécesseur direct de YOLO26, ou YOLO-World pour des capacités de détection à vocabulaire ouvert.