YOLOv5 YOLOv7: évolution des détecteurs d'objets en temps réel
Pour choisir la bonne architecture de détection d'objets, il faut trouver le juste équilibre entre précision, vitesse d'inférence et facilité de déploiement. Ce guide fournit une comparaison technique détaillée entre Ultralytics YOLOv5 et YOLOv7, deux modèles influents dans le domaine de la vision par ordinateur. Nous analysons leurs différences architecturales, leurs performances et leurs cas d'utilisation idéaux afin de vous aider à prendre une décision éclairée pour vos projets de vision par ordinateur.
Résumé
Bien que les deux modèles soient performants, YOLOv5 reste la référence dans le secteur en termes de facilité d'utilisation, de polyvalence de déploiement et de soutien communautaire. Son écosystème mature et son intégration transparente à la Ultralytics en font un excellent choix pour les environnements de production. YOLOv7, sorti plus tard, a introduit des innovations architecturales telles que E-ELAN pour une précision maximale sur GPU , mais il ne dispose pas du support multitâche étendu et des outils rationalisés que l'on trouve dans Ultralytics .
Pour les développeurs qui lancent de nouveaux projets en 2026, nous recommandons vivement d'évaluer YOLO26, qui surpasse les deux modèles en termes de vitesse et de précision grâce à une conception native de bout en bout, NMS.
Ultralytics YOLOv5: la norme de production
YOLOv5 a révolutionné le domaine non seulement grâce à ses performances brutes, mais aussi en accordant la priorité à l'expérience des développeurs. Il s'agit du premier YOLO implémenté nativement dans PyTorch, le rendant accessible à une vaste communauté de chercheurs et d'ingénieurs. Sa philosophie « facile à former, facile à déployer » l'a imposé comme la solution incontournable pour les applications du monde réel, allant des véhicules autonomes à l'inspection industrielle.
Auteur: Glenn Jocher
Organisation:Ultralytics
Date: 2020-06-26
GitHub:ultralytics/yolov5
Docs:Documentation YOLOv5
Architecture et conception
YOLOv5 une structure CSP-Darknet53 avec une couche Focus (remplacée par la suite par une convolution 6x6) afin de réduire les calculs tout en préservant les informations. Il utilise un réseau d'agrégation de chemins (PANet) pour la fusion des caractéristiques et la prédiction multi-échelle. Les principales caractéristiques architecturales sont les suivantes :
- Augmentation des données mosaïques : technique d'entraînement qui combine quatre images en une seule, améliorant ainsi la capacité du modèle à detect les detect objets et réduisant le besoin de mini-lots volumineux.
- Ancrages de boîte englobante à apprentissage automatique : le modèle adapte automatiquement les boîtes d'ancrage à la géométrie spécifique des ensembles de données personnalisés pendant l'entraînement.
- Activation SiLU : utilisation de la fonction d'activation Sigmoid Linear Unit (SiLU) pour une propagation plus fluide du gradient.
Principaux atouts
- Facilité d'utilisation : l'API simplifiée et la documentation complète permettent aux développeurs de former un modèle personnalisé en quelques lignes de code seulement.
- Polyvalence de déploiement : prise en charge intégrée de l'exportation pour ONNX, TensorRT, CoreML, TFLite et OpenVINO un déploiement transparent sur les cibles périphériques et cloud.
- Capacités multitâches : au-delà de la détection, YOLOv5 la segmentation d'instances et la classification d'images, offrant ainsi une boîte à outils complète pour diverses tâches de vision.
YOLOv7: optimisation GPU
YOLOv7 a été conçu pour repousser les limites de la vitesse et de la précision sur GPU . Il introduit plusieurs stratégies « bag-of-freebies » (sac de cadeaux), des méthodes qui augmentent la précision sans augmenter le coût de l'inférence, ce qui en fait un concurrent sérieux pour les scénarios de calcul haute performance.
Auteurs : Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
Organisation : Institut des sciences de l'information, Academia Sinica, Taïwan
Date : 06/07/2022
Arxiv :2207.02696
GitHub :WongKinYiu/yolov7
Documentation :YOLOv7
Architecture et innovation
YOLOv7 sur la conception d'une architecture efficace et la mise à l'échelle des modèles. Sa principale innovation réside dans les réseaux d'agrégation de couches efficaces étendus (E-ELAN), qui permettent au modèle d'apprendre des caractéristiques plus diverses en contrôlant les chemins de gradient les plus courts et les plus longs.
- Mise à l'échelle du modèle : YOLOv7 une méthode de mise à l'échelle composite qui modifie simultanément la profondeur et la largeur des modèles basés sur la concaténation, optimisant ainsi l'architecture pour différentes contraintes matérielles.
- Tête auxiliaire grossière à fine : elle utilise une tête auxiliaire pour l'entraînement qui guide le processus d'apprentissage, qui est ensuite reparamétré dans la tête principale pour l'inférence, garantissant ainsi aucune perte de vitesse lors du déploiement.
- Reparamétrage planifié : l'architecture utilise stratégiquement des convolutions reparamétrées (RepConv) afin d'équilibrer vitesse et précision, en évitant les connexions identitaires qui détruisent l'apprentissage résiduel.
Comparaison des performances
Le tableau suivant compare les performances de YOLOv5 YOLOv7 COCO . Alors que YOLOv7 des performances supérieures en termes de mAP brute mAP GPU, YOLOv5 une vitesse compétitive, en particulier sur CPU, et un nombre de paramètres nettement inférieur pour les modèles plus petits.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
Analyse des résultats
- Efficacité : YOLOv5n (Nano) est exceptionnellement léger, ce qui le rend parfait pour les appareils périphériques très limités où chaque mégaoctet de mémoire compte.
- Précision : YOLOv7x atteint une plus grande mAP (53,1 %) par rapport à YOLOv5x (50,7 %), démontrant ainsi les avantages de l'architecture E-ELAN pour les tâches GPU haut de gamme.
- Déploiement : laONNX CPU ONNX pour YOLOv5 bien documentée et optimisée, offrant des performances fiables pourGPU .
Choisir pour l'Edge
Pour les appareils périphériques tels que Raspberry Pi ou les téléphones mobiles, YOLOv5n ou YOLOv5s constituent souvent des choix supérieurs en raison de leur faible empreinte mémoire et de leur compatibilité éprouvée TFLite .
Formation et écosystème
L'un des principaux facteurs de différenciation réside dans l'écosystème qui entoure les modèles.YOLO Ultralytics bénéficient d'une plateforme constamment mise à jour qui simplifie l'ensemble du cycle de vie des opérations d'apprentissage automatique (MLOps).
Avantage de l'écosystème Ultralytics
- Plateforme intégrée : la Ultralytics permet aux utilisateurs de gérer des ensembles de données, de visualiser les cycles d'entraînement et de déployer des modèles de manière transparente à partir d'une interface Web.
- Efficacité de l'entraînement : YOLOv5 des chargeurs de données efficaces et une mise en cache intelligente, ce qui réduit considérablement le temps d'entraînement sur des ensembles de données personnalisés par rapport aux architectures plus anciennes.
- Assistance communautaire : grâce à des milliers de contributeurs et à des discussions animées sur GitHub et Discord, Ultralytics permettent de trouver plus rapidement des solutions aux cas particuliers.
Exemple de code : Formation avec Ultralytics
La formation d'un YOLO avec Ultralytics standardisée pour toutes les versions. Vous pouvez passer de YOLOv5 à YOLO11 et au modèle recommandé YOLO26 simplement en modifiant le nom du modèle.
from ultralytics import YOLO
# Load a pre-trained YOLOv5 model
model = YOLO("yolov5s.pt")
# Train the model on a custom dataset
# The API handles data downloading and configuration automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a new image
predictions = model("path/to/image.jpg")
L'avenir : pourquoi déménager à YOLO26 ?
Si la comparaison YOLOv5 YOLOv7 utile pour comprendre les systèmes existants, les technologies de pointe ont considérablement évolué depuis. Lancé en janvier 2026, Ultralytics représente un changement de paradigme dans la détection d'objets.
- Nativement de bout en bout : contrairement à YOLOv5 YOLOv7, qui nécessitent un post-traitement par suppression non maximale (NMS), YOLO26 est nativement NMS. Cela simplifie les pipelines de déploiement et réduit la variabilité de la latence.
- Optimiseur MuSGD : tirant parti des innovations issues de la formation LLM, l'optimiseur MuSGD garantit une convergence plus stable et des performances robustes sur divers ensembles de données.
- Vitesse améliorée : YOLO26 offre CPU jusqu'à 43 % plus rapide que les générations précédentes, ce qui en fait le choix idéal pour les applications d'IA de pointe modernes.
- Polyvalence : il prend en charge nativement les boîtes englobantes orientées (OBB), l'estimation de pose et la segmentation avec des fonctions de perte spécialisées telles que ProgLoss et STAL pour une meilleure détection des petits objets.
Conclusion
YOLOv5 YOLOv7 tous deux leur place dans l'histoire de la vision par ordinateur. YOLOv7 est un outil puissant destiné aux chercheurs qui permet de maximiser mAP certains GPU spécifiques. Cependant, YOLOv5 reste le choix pratique pour beaucoup en raison de sa facilité d'utilisation, de sa stabilité et de sa large prise en charge de déploiement inégalées.
Pour les projets tournés vers l'avenir, la recommandation est claire : adoptez Ultralytics . Il combine l'écosystème convivial de YOLOv5 des avancées architecturales qui surpassent ses deux prédécesseurs en termes de vitesse, de précision et de simplicité.
Visitez le Ultralytics HubUltralytics pour explorer ces architectures plus en détail et télécharger des poids pré-entraînés pour votre prochain projet.