YOLO26 vs YOLOv7: un bond générationnel dans la vision par ordinateur
Le domaine de la détection d'objets a connu une évolution rapide au cours de la dernière décennie, la famille YOLO You Only Look Once) étant constamment à la pointe en matière de performances en temps réel. Deux étapes importantes dans cette lignée sont YOLOv7, sortie mi-2022, et la très récente YOLO26, sortie début 2026. Alors que YOLOv7 le concept de « bag-of-freebies » pour optimiser l'entraînement sans augmenter le coût de l'inférence, YOLO26 représente un changement de paradigme avec son architecture NMS de bout en bout et sa conception CPU.
Ce guide fournit une comparaison technique détaillée afin d'aider les développeurs, les chercheurs et les ingénieurs à choisir le modèle adapté à leurs besoins spécifiques en matière de déploiement, qu'ils ciblent des GPU haut de gamme ou des appareils périphériques aux ressources limitées.
Présentation du modèle et auteurs
Comprendre l'historique de ces modèles permet de contextualiser leurs choix architecturaux et leurs cas d'utilisation prévus.
YOLO26
YOLO26 est la dernière version Ultralytics, conçue pour résoudre les défis persistants liés à la complexité du déploiement et à la latence en périphérie. Elle introduit un pipeline de bout en bout (E2E) qui élimine le besoin de suppression non maximale (NMS), rationalisant considérablement le cheminement entre la formation et la production.
- Auteurs : Glenn Jocher, Jing Qiu
- Organisation :Ultralytics
- Date : 14 janvier 2026
- Innovation clé : détection de bout en bout NMS, optimiseur MuSGD et optimisation CPU.
YOLOv7
YOLOv7 a été une version marquante qui s'est concentrée sur les méthodes d'optimisation « bag-of-freebies » (sac de cadeaux) entraînables qui améliorent la précision pendant l'entraînement sans ajouter de coût au moment de l'inférence. Elle a établi de nouvelles références de pointe pour les détecteurs d'objets en temps réel en 2022.
- Auteurs : Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
- Organisation : Institute of Information Science, Academia Sinica
- Date : 6 juillet 2022
- Arxiv:YOLOv7 : L’ensemble de techniques d’entraînement « bag-of-freebies » établit une nouvelle référence
- Innovation clé : reparamétrage E-ELAN et mise à l'échelle des composés.
Comparaison architecturale
Les différences architecturales entre YOLO26 et YOLOv7 leurs atouts respectifs en termes de vitesse, de précision et de facilité de déploiement.
YOLO26 : La révolution de bout en bout
YOLO26 modifie fondamentalement le pipeline de détection en adoptant une conception de bout en bout NMS. Les détecteurs traditionnels, y compris YOLOv7, produisent des milliers de boîtes candidates qui doivent être filtrées à l'aide de la suppression non maximale (NMS). Cette étape de post-traitement est souvent lente, sensible aux hyperparamètres et difficile à déployer sur du matériel spécialisé tel que les FPGA ou les NPU.
YOLO26 élimine NMS en apprenant le jumelage un-à-un pendant l'entraînement. Combiné à la suppression de la perte focale de distribution (DFL), cela donne une structure de modèle beaucoup plus simple à exporter vers des formats tels que ONNX ou TensorRT. De plus, YOLO26 utilise l'optimiseur MuSGD, un hybride de SGD Muon (inspiré de l'entraînement LLM), garantissant une convergence stable même avec son architecture novatrice.
YOLOv7: Bag-of-Freebies et E-ELAN
YOLOv7 sur l'efficacité architecturale grâce aux réseaux d'agrégation de couches efficaces étendus (E-ELAN). Cette conception permet au réseau d'apprendre des caractéristiques plus diverses en contrôlant les chemins de gradient les plus courts et les plus longs. Elle s'appuie fortement sur des techniques de reparamétrage, où une structure d'entraînement complexe est simplifiée en une structure d'inférence rationalisée. Bien que très efficace pour GPU , cette approche conserve la dépendance au NMS, qui peut devenir un goulot d'étranglement sur CPU ou lorsque la densité des objets est extrêmement élevée.
Pourquoi l'absence de NMS est-elle importante ?
Sur les appareils périphériques, le NMS ne peut souvent pas être parallélisé efficacement. En le supprimant, YOLO26 atteint une inférence jusqu'à 43 % plus rapide sur les processeurs par rapport à ses prédécesseurs basés sur des ancrages, ce qui en fait un choix supérieur pour les Raspberry Pi, les téléphones mobiles et les capteurs IoT.
Mesures de performance
Le tableau ci-dessous met en évidence les améliorations de performances de YOLO26 par rapport à YOLOv7. Si YOLOv7 un concurrent de taille sur les GPU haut de gamme, YOLO26 domine en termes d'efficacité, de taille de modèle et CPU .
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
Principaux points à retenir :
- Efficacité : le modèle YOLO26l surpasse YOLOv7l de +3,6 mAP tout en utilisant 32 % de paramètres en moins et 17 % de FLOP en moins.
- Vitesse : YOLO26n (Nano) offre un point d'entrée incroyable pour l'IA de pointe, fonctionnant à près de 40 ms sur CPU, une mesure que l'architecture YOLOv7 ne peut pas facilement égaler en raison de NMS .
- Précision : dans le haut de gamme, YOLO26x repousse les limites à 57,5 mAP, ce qui est nettement supérieur aux 53,1 mAP de YOLOv7x.
Cas d'utilisation et applications
Le choix entre ces modèles dépend souvent de l'environnement de déploiement et des exigences spécifiques de l'application.
Quand choisir YOLO26
YOLO26 est le choix recommandé pour la plupart des projets de vision par ordinateur modernes, en particulier ceux qui privilégient :
- Edge Computing : avec CPU jusqu'à 43 % plus rapide, il excelle sur des appareils tels que le Raspberry Pi ou NVIDIA Nano.
- Déploiement simplifié : la conception NMS facilite l'exportation vers CoreML (iOS) ou TFLite Android) est transparente, ce qui évite les problèmes courants liés à l'assistance des opérateurs.
- Détection de petits objets : les fonctions de perte ProgLoss + STAL améliorées offrent des gains notables dans la détection de petits objets, ce qui est crucial pour l'analyse d'images aériennes et les inspections par drone.
- Tâches diverses : au-delà de la détection, YOLO26 prend en charge nativement l'estimation de pose, la segmentation d'instances et les boîtes englobantes orientées (OBB).
Quand envisager YOLOv7
YOLOv7 pertinent pour les systèmes hérités ou les benchmarks de recherche spécifiques où la méthodologie « bag-of-freebies » est au centre des études.
- GPU hérités : si un système est déjà fortement optimisé pour les sorties spécifiques basées sur des ancrages de YOLOv7 des GPU haut de gamme (comme V100 ou A100), la migration peut être retardée.
- Recherche universitaire : les chercheurs qui étudient les effets de l'optimisation des chemins de gradient et de la reparamétrisation utilisent souvent YOLOv7 référence.
L'avantage de l'écosystème Ultralytics
L'une des raisons les plus convaincantes d'adopter YOLO26 est son intégration profonde dans Ultralytics . Contrairement aux référentiels autonomes, Ultralytics bénéficient d'une plateforme unifiée et bien entretenue.
- Facilité d'utilisation : grâce à la philosophie « zero-to-hero », vous pouvez passer de l'installation à la formation en quelques minutes. Python est cohérente d'une version à l'autre, ce qui facilite la mise à niveau depuis YOLOv8 à YOLO26 ne nécessite que la modification d'une seule chaîne.
- Efficacité de l'entraînement : Ultralytics sont optimisés pour s'entraîner plus rapidement et utiliser moins CUDA que les alternatives basées sur des transformateurs (comme RT-DETR). Cela permet d'utiliser des lots plus importants sur les GPU grand public.
- Ultralytics : les utilisateurs peuvent exploiter la Ultralytics pour visualiser des ensembles de données, former des modèles dans le cloud et les déployer en un seul clic.
Exemple de code : apprentissage et inférence
Le code suivant montre comment utiliser Ultralytics pour charger et entraîner le dernier modèle YOLO26. L'API simplifie la configuration complexe, la rendant accessible même aux débutants.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
# The 'n' suffix denotes the Nano version, optimized for speed.
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The system automatically handles dataset downloads and configuration.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a sample image
# The NMS-free output ensures fast and clean results.
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the results
predictions[0].show()
Conclusion
Si YOLOv7 un tournant dans l'histoire de la détection d'objets, YOLO26 représente l'avenir. Son architecture de bout en bout améliore non seulement les indicateurs de performance tels que mAP la latence, mais simplifie également de manière fondamentale le processus de déploiement pour les développeurs. En supprimant la dépendance au NMS en optimisant considérablement les environnements CPU périphériques, YOLO26 garantit que la vision par ordinateur de pointe est accessible, efficace et suffisamment polyvalente pour des applications concrètes allant des véhicules autonomes à l'analyse des villes intelligentes.
Pour ceux qui souhaitent découvrir d'autres architectures modernes, la documentation couvre également YOLO11 et YOLOv10, qui offrent différents compromis dans l'évolution continue de l'IA visuelle.