Passer au contenu

YOLO26 vs YOLOv5: faire progresser la détection d'objets en temps réel

L'évolution de la détection d'objets a été marquée par des étapes importantes, et la comparaison entre YOLO26 et le légendaire YOLOv5 permet de se rendre compte clairement des progrès réalisés dans le domaine de la vision par ordinateur. Alors que YOLOv5 la norme industrielle en matière de convivialité et d'équilibre en 2020, YOLO26 représente la pointe de la recherche en matière d'IA générative et de vision en 2026. Ce guide analyse leurs architectures, leurs mesures de performance et leurs scénarios de déploiement idéaux afin de vous aider à choisir l'outil le mieux adapté à votre projet.

Résumé

YOLOv5, publié par Ultralytics en 2020, a démocratisé l'IA en rendant la détection d'objets accessible, rapide et facile à former. Il reste un outil fiable pour les systèmes existants.

YOLO26, sorti en janvier 2026, s'appuie sur cet héritage avec une architecture native de bout en bout qui élimine la suppression non maximale (NMS). Il introduit l'optimiseur MuSGD inspiré des grands modèles linguistiques (LLM), ce qui se traduit par une convergence plus rapide et une précision nettement améliorée, en particulier pour les petits objets et les appareils périphériques.

FonctionnalitéYOLO26YOLOv5
ArchitectureNMS de bout en boutBasé sur une ancre avec NMS
OptimiseurMuSGD (inspiré du LLM)SGD Adam
Vitesse d'inférenceJusqu'à 43 % plus rapide sur CPUTemps réel standard
Tâchesdetect, segment, classify, Pose, obbDétecter, segmenter, classifier
Idéal pourIA en périphérie,CPU en temps réel, robotiqueUsage général, prise en charge héritée

Bancs d'essai de performance

Le tableau suivant compare les modèles sur l'ensemble COCO . YOLO26 affiche des gains substantiels en termes de précision (mAP) et la vitesse d'inférence, en particulier sur CPU où un traitement efficace est essentiel.

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Remarque sur les performances

YOLO26n offre une amélioration considérable de 46 % du mAP par rapport à YOLOv5n, tout en fonctionnant près de deux fois plus vite sur les processeurs. Cela en fait le choix idéal pour les applications mobiles et l'IA de pointe.

YOLO26 : La nouvelle norme pour l'IA en périphérie

YOLO26 est conçu pour répondre aux complexités des pipelines de déploiement modernes. En supprimant le besoin de NMS et de Distribution Focal Loss (DFL), le modèle simplifie l'exportation vers des formats tels que ONNX et TensorRT, réduisant ainsi la variabilité de la latence.

Principales innovations architecturales

  1. NMS de bout en bout : l'architecture du modèle prédit directement un cadre de sélection par objet, supprimant ainsi NMS heuristique NMS . Cela réduit la charge de calcul pendant l'inférence, une technique mise au point pour la première fois dans YOLOv10.
  2. Optimiseur MuSGD : Adaptant les innovations issues de la formation LLM, YOLO26 utilise un hybride de SGD Muon (inspiré du Kimi K2 de Moonshot AI). Il en résulte une dynamique de formation plus stable et une convergence plus rapide, ce qui réduit le coût de la formation des modèles personnalisés.
  3. ProgLoss + STAL : l'intégration de Progressive Loss et Soft-Target Anchor Loss améliore considérablement la détection des petits objets, une exigence essentielle pour l'imagerie par drone et les véhicules autonomes.
  4. Efficacité : avec CPU jusqu'à 43 % plus rapide, YOLO26 est optimisé pour les appareils qui ne disposent pas de GPU puissants, tels que les ordinateurs portables standard et les Raspberry Pi.

En savoir plus sur YOLO26

YOLOv5: l'héritage de la facilité d'utilisation

YOLOv5 a révolutionné le domaine de la vision par ordinateur en accordant la priorité à l'expérience utilisateur. Sa PyTorch intuitive et son écosystème robuste ont établi la norme en matière de développement d'IA « zero-to-hero ».

  • Facilité d'utilisation : réputé pour sa structure de répertoires simple et son interface « train.py », YOLOv5 un outil privilégié à des fins éducatives et pour le prototypage rapide.
  • Large compatibilité : la prise en charge étendue des formats d'exportation garantit son fonctionnement sur presque tous les matériels, d'Apple CoreML à Android TFLite.
  • Assistance communautaire : des années de développement actif ont permis de créer une vaste bibliothèque de tutoriels, d'intégrations tierces et de correctifs communautaires.

En savoir plus sur YOLOv5

Comparaison des cas d'utilisation

Le choix entre ces modèles dépend de vos contraintes spécifiques en matière de matériel, de précision et de complexité des tâches.

Scénarios Idéaux pour YOLO26

  • Edge Computing & IoT : la suppression du DFL et NMS YOLO26 exceptionnellement rapide sur les CPU et les NPU. Il est parfait pour les caméras intelligentes, l'analyse commerciale et les capteurs industriels.
  • Robotique et navigation : la conception de bout en bout offre une latence déterministe, ce qui est crucial pour les boucles de contrôle en temps réel dans le domaine de la robotique.
  • Tâches avancées : si vous avez besoin d'une estimation de pose avec estimation de la vraisemblance résiduelle (RLE) ou d'une détection très précise des boîtes englobantes orientées (OBB) pour les images aériennes, YOLO26 offre des têtes architecturales spécialisées qui YOLOv5 .
  • Détection de petits objets : grâce à ProgLoss, YOLO26 excelle dans la détection de petits éléments tels que les défauts de fabrication ou les objets éloignés dans les images de vidéosurveillance.

Scénarios idéaux pour YOLOv5

  • Systèmes hérités : les projets déjà profondément intégrés aux YOLOv5 peuvent trouver rentable de conserver le modèle actuel si les performances répondent aux exigences.
  • Ateliers pédagogiques : son code source simple est idéal pour enseigner les principes fondamentaux des réseaux neuronaux convolutifs (CNN).

Formation et écosystème

Les deux modèles bénéficient du solide Ultralytics , mais YOLO26 apporte des gains d'efficacité modernes.

Efficacité de l'entraînement

YOLO26 utilise l'optimiseur MuSGD, qui stabilise l'entraînement pour différentes tailles de lots et différents taux d'apprentissage. Cela permet souvent de réduire le nombre d'époches nécessaires pour atteindre la convergence par rapport à SGD standard YOLOv5, ce qui permet de réduire les coûts GPU .

Besoins en mémoire

Ultralytics sont réputés pour leur efficacité. YOLO26 s'inscrit dans cette tendance, nécessitant nettement moins CUDA que les alternatives basées sur des transformateurs telles que RT-DETR. Cela permet aux développeurs d'entraîner des modèles plus volumineux sur des GPU grand public tels que les NVIDIA 3060 ou 4090.

Ultralytics

Les deux modèles sont entièrement intégrés à la Ultralytics , qui rationalise l'ensemble du flux de travail :

  • Gestion des ensembles de données : téléchargez et annotez des données avec l'aide de l'IA.
  • Formation en un clic : formez-vous sur le cloud sans avoir à gérer l'infrastructure.
  • Déploiement : exportation automatique vers TensorRT, OpenVINO et d'autres plateformes pour la production.

Conclusion

Alors que YOLOv5 reste un classique respecté qui a défini toute une génération de détecteurs d'objets, YOLO26 est le choix idéal pour les nouveaux projets en 2026. Ses avancées architecturales, notamment sa conception NMS et son optimiseur MuSGD, offrent un modèle plus rapide, plus précis et plus facile à déployer sur les appareils périphériques.

Pour les développeurs qui recherchent le meilleur équilibre entre vitesse et précision, YOLO26 offre une base évolutive. Nous recommandons de migrer YOLOv5 existants vers YOLO26 afin de profiter de ces gains de performances significatifs.

Auteurs et références

YOLO26

YOLOv5

Pour ceux qui souhaitent découvrir d'autres architectures modernes, nous vous recommandons de consulter YOLO11 pour les tâches de vision générale ou RT-DETR pour la détection basée sur un transformateur.


Commentaires