YOLO26 vs YOLOv5: un bond générationnel dans la détection d'objets
L'évolution de la vision par ordinateur a été marquée par la recherche incessante de vitesse, de précision et d'accessibilité. Le choix de l'architecture appropriée est essentiel à la réussite de tout projet d'IA. Dans ce guide complet, nous comparons deux versions monumentales Ultralytics: le pionnier YOLOv5 et le révolutionnaire YOLO26. Si les deux ont fortement influencé le paysage de la détection d'objets en temps réel, leurs technologies sous-jacentes reflètent un changement de paradigme majeur dans la manière dont les réseaux neuronaux traitent les données visuelles.
Aperçu du modèle
Avant de plonger dans les nuances architecturales, établissons les détails fondamentaux des deux modèles.
Détails de YOLO26 :
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation : Ultralytics
- Date : 14 janvier 2026
- GitHub : ultralytics
- Docs : Documentation YOLO26
YOLOv5 :
- Auteurs : Glenn Jocher
- Organisation : Ultralytics
- Date : 2020-06-26
- GitHub : yolov5
- Docs : Documentation YOLOv5
Explorer d'autres options
Bien que ce guide se concentre sur YOLO26 et YOLOv5, les développeurs qui migrent des systèmes hérités pourraient également être intéressés par une comparaison entre YOLO11 ou l'architecture pionnière NMS de YOLOv10. Ces deux solutions constituent d'excellents tremplins pour des environnements de déploiement spécifiques.
Innovations architecturales
Les six années qui séparent YOLOv5 YOLO26 représentent un bond en avant considérable dans la recherche sur l'apprentissage profond. YOLOv5 l'utilisation généralisée de PyTorch pour les modèles de vision, offrant un mécanisme de détection hautement optimisé et basé sur des ancrages qui est devenu la norme dans l'industrie. Cependant, il s'appuyait fortement sur la suppression non maximale (NMS) pendant le post-traitement, ce qui pouvait introduire des goulots d'étranglement de latence sur les appareils aux ressources limitées.
YOLO26 réinvente complètement le pipeline d'inférence avec une conception de bout en bout NMS. En éliminant le besoin de NMS , YOLO26 offre une logique de déploiement plus rapide et beaucoup plus simple, un concept lancé pour la première fois dans YOLOv10 perfectionné ici. De plus, YOLO26 intègre la suppression DFL (Distribution Focal Loss), qui simplifie considérablement la tête de sortie. Cela facilite l'exportation du modèle vers des formats tels que ONNX et TensorRT , garantissant une excellente compatibilité avec les appareils de pointe et à faible consommation d'énergie.
Pendant l'entraînement, YOLO26 utilise l'optimiseur de pointe MuSGD, un hybride de SGD et de Muon inspiré par Kimi K2 de Moonshot AI. Cela introduit les innovations d'entraînement des LLM dans le domaine de la vision par ordinateur, garantissant un entraînement très stable et une convergence significativement plus rapide par rapport aux optimiseurs traditionnels SGD ou AdamW utilisés dans YOLOv5.
Performance et indicateurs
Lors de l'évaluation des modèles, l'équilibre entre la précision moyenne (mAP) et la vitesse d'inférence détermine la viabilité dans le monde réel. YOLO26 est optimisé en natif pour les GPU haut de gamme et les CPU périphériques.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Les benchmarks révèlent une amélioration spectaculaire. Par exemple, YOLO26n atteint un mAP de 40,9 comparé à YOLOv5nde 28,0, tout en offrant simultanément jusqu'à 43 % plus rapide pour CPU. Cela rend YOLO26 largement supérieur pour les déploiements embarqués comme Raspberry Pi ou les appareils mobiles. Si YOLOv5 un léger avantage en termes deGPU TensorRT à l'échelle Nano, le compromis en matière de précision favorise largement YOLO26.
Écosystème de formation et facilité d'utilisation
Les deux modèles bénéficient immensément de l'écosystème Ultralytics bien entretenu. Ils offrent une expérience "du débutant à l'expert" avec une API Python simplifiée, une documentation complète et un support communautaire actif. Cependant, YOLO26 porte l'efficacité de l'entraînement à un nouveau niveau.
Ultralytics exigent systématiquement beaucoup moins CUDA pendant l'entraînement que les alternatives à forte intensité de transformateurs. YOLO26 amplifie cet effet grâce à ses fonctions de perte ProgLoss + STAL. Ces avancées permettent d'améliorer considérablement la reconnaissance des petits objets sans alourdir la charge mémoire.
from ultralytics import YOLO
# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)
# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
Ce script simple permet aux développeurs d'itérer rapidement sur des ensembles de données personnalisés, passant de manière transparente de l'ingestion des données à un modèle prêt pour la production.
Déploiement simplifié
Grâce à la Ultralytics , vous pouvez exporter automatiquement vos modèles YOLO26 entraînés vers des formats tels que CoreML ou TensorFlow sans écrire une seule ligne de code de conversion.
Polyvalence et cas d'utilisation idéaux
Quand utiliser YOLOv5
YOLOv5 un outil fiable pour les systèmes existants. Si vous disposez d'un pipeline industriel existant fortement couplé à des sorties basées sur des ancrages, ou si vous effectuez des inférences sur des appareils NVIDIA plus anciens avec TensorRT matures et figées, YOLOv5 une solution stable et très bien documentée.
Quand utiliser YOLO26
YOLO26 est le choix incontournable pour les projets modernes de vision par ordinateur. Sa polyvalence dépasse de loin celle de son prédécesseur. Alors que YOLOv5 se concentre YOLOv5 sur la détection (avec des ajouts ultérieurs en matière de segmentation), YOLO26 offre une prise en charge native approfondie de la segmentation d'instances, de l'estimation de pose, de la classification d'images et des boîtes englobantes orientées (OBB).
YOLO26 introduit des améliorations spécifiques à certaines tâches, telles qu'une perte de segmentation sémantique spécialisée, l'estimation de la vraisemblance logarithmique résiduelle (RLE) pour des points clés de pose ultra-précis et une perte angulaire avancée pour OBB afin de résoudre les problèmes de limites complexes.
- IoT en périphérie et Robotique : L'architecture sans NMS et l'inférence CPU 43 % plus rapide rendent YOLO26 idéal pour la navigation robotique en temps réel et les caméras de maison intelligente.
- Imagerie aérienne : Les améliorations ProgLoss + STAL rendent la détection de très petits objets à partir de drones—comme les véhicules dans les parkings ou les cultures dans les champs agricoles—substantiellement plus fiable.
- Analyse vidéo en temps réel : Qu'il s'agisse de suivre des athlètes dans des retransmissions sportives ou de surveiller les flux de trafic, l'équilibre des performances de YOLO26 assure un rappel élevé sans perte d'images.
En fin de compte, Ultralytics en faveur d'un écosystème accessible et hautement performant garantit une transition sans heurts de YOLOv5 YOLO26, offrant ainsi des capacités de pointe aux chercheurs et aux développeurs.