Passer au contenu

YOLOv7 vs YOLO11 : Une comparaison technique détaillée

Le choix du modèle de détection d'objets optimal nécessite une compréhension approfondie des capacités spécifiques et des compromis des différentes architectures. Cette page fournit une comparaison technique complète entre YOLOv7 et Ultralytics YOLO11, deux modèles puissants de la lignée YOLO. Nous examinerons en profondeur leurs différences architecturales, leurs benchmarks de performance et leurs cas d'utilisation idéaux pour vous aider à choisir la solution la mieux adaptée à vos projets de vision par ordinateur.

YOLOv7 : Détection d'objets efficace et précise

YOLOv7 a été présenté comme une avancée importante dans la détection d’objets en temps réel, en se concentrant sur l’optimisation de l’efficacité et de la précision de la formation sans augmenter les coûts d’inférence. Il a établi une nouvelle référence pour les détecteurs en temps réel lors de sa sortie.

Auteurs : Chien-Yao Wang, Alexey Bochkovskiy et Hong-Yuan Mark Liao
Organisation : Institut des sciences de l'information, Academia Sinica, Taïwan
Date : 2022-07-06
Arxiv : https://arxiv.org/abs/2207.02696
GitHub : https://github.com/WongKinYiu/yolov7
Docs : https://docs.ultralytics.com/models/yolov7/

Architecture et principales fonctionnalités

YOLOv7 s'appuie sur les architectures YOLO précédentes en introduisant plusieurs innovations clés. Il utilise des techniques telles que les Extended Efficient Layer Aggregation Networks (E-ELAN) dans le backbone pour améliorer l'extraction et l'apprentissage des caractéristiques. Une contribution majeure est le concept de « trainable bag-of-freebies », qui implique des stratégies d'optimisation appliquées pendant l'entraînement : comme l'utilisation d'une tête de détection auxiliaire et d'un guidage grossier à fin : pour améliorer la précision du modèle final sans ajouter de surcharge de calcul pendant l'inférence. Bien qu'il soit principalement axé sur la détection d'objets, le référentiel officiel présente des extensions communautaires pour des tâches telles que l'estimation de la pose et la segmentation d'instance.

Performance et cas d'utilisation

YOLOv7 a démontré des performances de pointe lors de sa sortie, offrant un équilibre convaincant entre vitesse et précision. Par exemple, le modèle YOLOv7x atteint 53,1 % de mAPtest sur l'ensemble de données MS COCO à une taille d'image de 640. Son efficacité le rend adapté aux applications en temps réel telles que les systèmes de sécurité avancés et les systèmes autonomes nécessitant une détection rapide et précise.

Points forts

  • Équilibre entre précision et vitesse élevés : Offre une combinaison robuste de mAP et de vitesse d’inférence pour les tâches en temps réel sur GPU.
  • Entraînement efficace : Utilise des techniques d'entraînement avancées (« bag-of-freebies ») pour améliorer la précision sans augmenter le coût de l'inférence.
  • Performances établies : Résultats éprouvés sur des benchmarks standard comme MS COCO.

Faiblesses

  • Complexité : L’architecture et les techniques d’entraînement peuvent être complexes à saisir et à optimiser pleinement.
  • Gourmand en ressources : Les modèles YOLOv7 plus grands nécessitent des ressources GPU importantes pour l'entraînement.
  • Polyvalence de tâches limitée : Principalement axé sur la détection d’objets, nécessitant des implémentations distinctes pour d’autres tâches comme la segmentation ou la classification, contrairement aux modèles intégrés tels que YOLO11.
  • Moins maintenu : Le framework n’est pas aussi activement développé ou maintenu que l’écosystème Ultralytics, ce qui entraîne moins de mises à jour et moins de soutien de la communauté.

En savoir plus sur YOLOv7

Ultralytics YOLO11 : Efficacité et polyvalence de pointe

Ultralytics YOLO11 représente la dernière évolution de la série YOLO d'Ultralytics, conçu pour une précision supérieure, une efficacité accrue et une plus grande polyvalence des tâches dans un cadre convivial. Il s'appuie sur les succès de ses prédécesseurs comme YOLOv8 pour offrir une expérience à la pointe de la technologie.

Auteurs : Glenn Jocher et Jing Qiu
Organisation : Ultralytics
Date : 2024-09-27
GitHub : https://github.com/ultralytics/ultralytics
Docs : https://docs.ultralytics.com/models/yolo11/

Architecture et principales fonctionnalités

L'architecture de YOLO11 intègre des techniques avancées d'extraction de caractéristiques et une conception de réseau rationalisée, ce qui se traduit par une précision accrue, souvent avec un nombre de paramètres réduit par rapport à ses prédécesseurs. Cette optimisation permet d'obtenir des vitesses d'inférence plus rapides et des besoins de calcul moins importants, ce qui est essentiel pour le déploiement sur diverses plateformes, des appareils périphériques à l'infrastructure cloud.

Un avantage clé de YOLO11 est sa polyvalence. Il prend en charge nativement plusieurs tâches de vision par ordinateur, notamment la détection d’objets, la segmentation d’instances, la classification d’images, l’estimation de pose et les boîtes englobantes orientées (OBB). Il s’intègre parfaitement à l’écosystème Ultralytics, offrant une expérience utilisateur rationalisée via des interfaces Python et CLI simples, une documentation complète et des poids pré-entraînés facilement disponibles pour un entraînement efficace.

Performance et cas d'utilisation

YOLO11 démontre des scores impressionnants de précision moyenne (mAP) sur différentes tailles de modèles, atteignant un compromis favorable entre la vitesse et la précision. Par exemple, YOLO11m atteint un mAPval de 51,5 à une taille d'image de 640 avec beaucoup moins de paramètres que YOLOv7l. Les variantes plus petites comme YOLO11n offrent une inférence exceptionnellement rapide, tandis que les modèles plus grands comme YOLO11x maximisent la précision. Notamment, les modèles YOLO11 présentent souvent une utilisation de la mémoire plus faible pendant l'entraînement et l'inférence par rapport à d'autres architectures.

La précision et l'efficacité améliorées de YOLO11 le rendent idéal pour les applications nécessitant un traitement précis et en temps réel :

Points forts

  • Performances de pointe : Scores mAP élevés avec une architecture optimisée et sans ancres.
  • Inférence Efficace: Excellente vitesse, en particulier sur CPU, adapté aux besoins en temps réel.
  • Prise en charge polyvalente des tâches : Gère nativement la détection, la segmentation, la classification, la pose et l'OBB dans un framework unique.
  • Facilité d'utilisation : API simple, documentation exhaustive et prise en charge intégrée d'Ultralytics HUB pour l'entraînement et le déploiement sans code.
  • Écosystème bien entretenu : Développement actif, communauté forte, mises à jour fréquentes et processus de formation efficaces.
  • Scalabilité : Fonctionne efficacement sur différents matériels, de la périphérie au cloud, avec des besoins en mémoire réduits.

Faiblesses

  • En tant que modèle plus récent, certaines intégrations d’outils tiers spécifiques pourraient encore évoluer par rapport aux modèles plus anciens et plus établis.
  • Les modèles plus grands peuvent exiger d'importantes ressources de calcul pour l'entraînement, bien qu'ils restent très efficaces pour leur classe de performance.

En savoir plus sur YOLO11

Comparaison des performances : YOLOv7 vs. YOLO11

Le tableau suivant fournit une comparaison détaillée des performances entre les modèles YOLOv7 et YOLO11 sur le jeu de données COCO. Les modèles YOLO11 démontrent un équilibre supérieur entre précision, vitesse et efficacité. Par exemple, YOLO11l atteint un mAP plus élevé que YOLOv7x avec moins de la moitié des paramètres et des FLOP, et il est significativement plus rapide sur GPU. De même, YOLO11m correspond à la précision de YOLOv7l avec environ la moitié des paramètres et du coût de calcul. Le plus petit modèle, YOLO11n, offre une vitesse remarquable sur CPU et GPU avec une utilisation minimale des ressources, ce qui le rend idéal pour les applications périphériques.

Modèle Taille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLOv7l 640 51.4 - 6.84 36.9 104.7
YOLOv7x 640 53.1 - 11.57 71.3 189.9
YOLO11n 640 39.5 56.1 1.5 2.6 6.5
YOLO11s 640 47.0 90.0 2.5 9.4 21.5
YOLO11m 640 51.5 183.2 4.7 20.1 68.0
YOLO11l 640 53.4 238.6 6.2 25.3 86.9
YOLO11x 640 54.7 462.8 11.3 56.9 194.9

Conclusion : Quel modèle devriez-vous choisir ?

Bien que YOLOv7 ait été un modèle puissant pour son époque et offre toujours de solides performances pour la détection d'objets en temps réel, Ultralytics YOLO11 représente un bond en avant significatif. YOLO11 surpasse non seulement YOLOv7 dans les principaux indicateurs de performance, mais offre également un cadre beaucoup plus polyvalent, convivial et bien pris en charge.

Pour les développeurs et les chercheurs à la recherche d'une solution moderne tout-en-un, YOLO11 est le choix évident. Ses avantages incluent:

  • Équilibre supérieur des performances : YOLO11 offre un meilleur compromis entre la précision, la vitesse et le coût de calcul.
  • Polyvalence multi-tâche : La prise en charge native de la détection, de la segmentation, de la classification, de la pose et des OBB élimine le besoin de plusieurs modèles et simplifie les flux de travail de développement.
  • Facilité d'utilisation : L'API simplifiée, la documentation complète et les procédures de formation simples le rendent accessible aux débutants comme aux experts.
  • Développement actif : En tant qu’élément de l’écosystème Ultralytics, YOLO11 bénéficie de mises à jour continues, d’une forte communauté open source et d’une intégration avec des outils comme Ultralytics HUB pour un MLOps transparent.

En résumé, si votre priorité est de tirer parti des dernières avancées en matière d'IA pour un large éventail d'applications en mettant l'accent sur la facilité de déploiement et la pérennité, Ultralytics YOLO11 est le modèle recommandé.

Explorer d'autres modèles

Pour une exploration plus approfondie, consultez ces comparaisons impliquant YOLOv7, YOLO11 et d'autres modèles pertinents dans la documentation Ultralytics :



📅 Créé il y a 1 an ✏️ Mis à jour il y a 1 mois

Commentaires