Passer au contenu

YOLOv7 YOLO11: comparaison technique complète

Le domaine de la vision par ordinateur a connu une évolution rapide au cours des dernières années. Pour les développeurs et les chercheurs qui doivent choisir le bon cadre de détection d'objets, il est essentiel de comprendre les différences architecturales et pratiques entre les modèles qui définissent cette génération. Ce guide fournit une comparaison technique détaillée entre la percée académique de YOLOv7 et le modèle hautement perfectionné et prêt à la production Ultralytics YOLO11.

Origines des modèles et philosophies architecturales

YOLOv7, publié le 6 juillet 2022 par les auteurs Chien-Yao Wang, Alexey Bochkovskiy et Hong-Yuan Mark Liao de l'Institut des sciences de l'information de l'Academia Sinica, a introduit plusieurs concepts novateurs dans ce domaine. Détaillé dans leur articleYOLOv7 publié sur arXiv, le modèle se concentre fortement sur une approche « trainable bag-of-freebies » (sac de cadeaux entraînables) et sur les réseaux d'agrégation de couches efficaces étendus (E-ELAN). Ces choix architecturaux ont été spécialement conçus pour maximiser l'efficacité du chemin de gradient, ce qui en fait un outil puissant pour l'évaluation comparative académique sur les GPU haut de gamme.

En savoir plus sur YOLOv7

YOLO11, développé par Glenn Jocher et Jing Qiu chez Ultralytics, a été lancé le 27 septembre 2024. YOLO11 l'attention de la complexité architecturale pure vers un écosystème holistique axé sur les développeurs. Hébergé sur le référentielUltralytics , YOLO11 une conception optimisée sans ancrage qui réduit considérablement la consommation de mémoire pendant l'entraînement et l'inférence. Il est intégré en natif à la Ultralytics , offrant une facilité d'utilisation inégalée, de l'annotation des ensembles de données au déploiement en périphérie.

En savoir plus sur YOLO11

Avantage de l'écosystème

Alors que les référentiels autonomes deviennent souvent inactifs après la publication d'un article universitaire, Ultralytics bénéficient de mises à jour continues, garantissant une compatibilité à long terme avec les piles d'apprentissage automatique modernes telles que PyTorch dernières PyTorch et les accélérateurs matériels spécialisés.

Métriques de performance et efficacité

Lors du déploiement de modèles dans des applications réelles, la précision brute doit être mise en balance avec la vitesse d'inférence et la charge de calcul. Vous trouverez ci-dessous une comparaison directe des YOLO11 YOLOv7 YOLO11 évaluées sur les benchmarks standard COCO .

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

Remarque : l'absence CPU pour YOLOv7 des environnements de test hérités qui n'ont pas normaliséCPU ONNX . Les meilleures valeurs dans les niveaux comparables sont mises en évidence.

Analyse des résultats

Les données illustrent une nette évolution en termes d'efficacité. Le modèle YOLO11l (Large) atteint unmAPval supérieur de 53,4 % par rapport à celui de YOLOv7l (51,4 %), tout en utilisant beaucoup moins de paramètres (25,3 millions contre 36,9 millions) et nettement moins de FLOP (86,9 milliards contre 104,7 milliards). Cette réduction de la complexité informatique permet à YOLO11 fonctionner plus rapidement sur TensorRT NVIDIA TensorRT et nécessite moins de VRAM, ce qui le rend beaucoup plus adapté aux environnements soumis à des contraintes matérielles.

Utilisation et formation aux processus de travail

Un point de divergence majeur entre les deux cadres est l'expérience développeur.

Formation YOLOv7

L'utilisation du codeYOLOv7 original YOLOv7 nécessite souvent de cloner le référentiel, de résoudre manuellement les dépendances et de s'appuyer sur des arguments de ligne de commande verbeux. La gestion de différentes tâches ou l'exportation vers des formats mobiles implique souvent de modifier les scripts source ou de s'appuyer sur des fourches tierces.

Formation YOLO11

YOLO11 profondément intégré dans le ultralytics Python , simplifying the machine learning lifecycle. Training an modèle de détection d'objets ne nécessite que quelques lignes de code, et le framework gère nativement le téléchargement des données, le réglage des hyperparamètres et la mise en cache.

from ultralytics import YOLO

# Load a pretrained YOLO11 Nano model for maximum speed
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Export the trained model to ONNX format for deployment
export_path = model.export(format="onnx")

De plus, YOLO11 une extrême polyvalence. En modifiant simplement le suffixe du modèle, les développeurs peuvent passer instantanément de la détection à la segmentation d'instances, au suivi de l'estimation de la pose ou à la reconnaissance des boîtes englobantes orientées (OBB), un niveau de prise en charge multitâche native dont YOLOv7 .

Exportations simplifiées

Exportation YOLO11 des formats de pointe tels que Apple CoreML ou OpenVINO Intel OpenVINO nécessite seulement un seul .export() commande, évitant ainsi les manipulations graphiques complexes souvent requises par les modèles de génération antérieure.

Scénarios de déploiement idéaux

Comprendre les points forts de chaque modèle permet de déterminer leurs meilleurs cas d'utilisation.

  • Reproduction du benchmark hérité: YOLOv7 reste utile pour les chercheurs universitaires qui ont besoin de reproduire des benchmarks spécifiques de 2022 ou d'étudier les effets des techniques de reparamétrage sur les réseaux basés sur des ancres.
  • Environnements de production commerciale: YOLO11 est le choix évident pour les systèmes d'entreprise. Sa stabilité, sa maintenance active et son intégration avec l'interfaceUltralytics basée sur le cloud en font la solution idéale pour la gestion des analyses à grande échelle dans le commerce de détail, la surveillance de la sécurité et le contrôle qualité dans le secteur manufacturier.
  • Edge Computing à ressources limitées: la variante YOLO11n, incroyablement légère, est spécialement conçue pour les appareils périphériques à faible consommation d'énergie. Elle fonctionne efficacement sur un système Raspberry Pi ou des modulesNVIDIA .

Perspectives d'avenir : le changement de paradigme de YOLO26

Si YOLO11 une solution de pointe très sophistiquée, le domaine de l'apprentissage automatique ne cesse de progresser. Pour les utilisateurs qui se lancent aujourd'hui dans de tout nouveaux projets de vision, il est fortement recommandé d'explorer la nouvelle version Ultralytics .

Sorti en janvier 2026, YOLO26 introduit plusieurs fonctionnalités révolutionnaires qui surpassent à la fois YOLOv7 YOLO11:

  • Architecture native NMS: YOLO26 élimine le besoin d'un post-traitement par suppression non maximale. Cette conception de bout en bout simplifie les pipelines de déploiement et réduit considérablement la variabilité de la latence.
  • CPU jusqu'à 43 % plus rapide : grâce à la suppression stratégique du module Distribution Focal Loss (DFL), YOLO26 est fortement optimisé pour les appareils et environnements périphériques sans GPU dédiés.
  • Intégration de l'optimiseur MuSGD : inspiré des techniques avancées de formation LLM de Moonshot AI, cet optimiseur hybride garantit une stabilité de formation sans précédent et des taux de convergence plus rapides.
  • Détection supérieure des petits objets : l'introduction des fonctions de perte ProgLoss et STAL améliore considérablement la précision pour identifier les détails infimes, ce qui est idéal pour analyser les images aériennes prises par drone et les données complexes des capteurs IoT.

En savoir plus sur YOLO26

Pour les utilisateurs intéressés par les architectures basées sur des transformateurs ou d'autres paradigmes, la Ultralytics couvre également des modèles tels que le détecteurRT-DETR et le modèle à vocabulaire ouvertYOLO.


Commentaires