L'évolution de la détection d'objets : YOLOv5 YOLOv7
Le domaine de la vision par ordinateur a connu une évolution rapide au cours des dernières années, motivée par le besoin d'une détection d'objets en temps réel plus rapide et plus précise. Lorsque vous choisissez l'architecture adaptée à votre projet de vision par ordinateur, il est important de comprendre les nuances entre les modèles populaires tels que Ultralytics YOLOv5 et YOLOv7 Cette comparaison technique complète examine en détail leurs architectures, leurs méthodologies de formation, leurs mesures de performance et leurs scénarios de déploiement idéaux afin de vous aider à prendre une décision éclairée.
En bref : Origines du modèle
Comprendre les origines et les philosophies de conception qui sous-tendent ces modèles permet de mieux comprendre les choix architecturaux qui ont été faits.
YOLOv5 :
- Auteurs : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- GitHub :Dépôt YOLOv5
- Docs :Documentation YOLOv5
Détails de YOLOv7 :
- Auteurs : Chien-Yao Wang, Alexey Bochkovskiy et Hong-Yuan Mark Liao
- Organisation :Institute of Information Science, Academia Sinica, Taïwan
- Date : 2022-07-06
- Arxiv:Article YOLOv7
- GitHub :Dépôt YOLOv7
- Docs :Documentation YOLOv7
Découvrez d'autres architectures
Vous souhaitez savoir comment ces modèles se comparent aux autres ? Consultez nos comparaisons, telles que YOLOv5 YOLO11 ou YOLOv7 EfficientDet, pour approfondir votre compréhension de l'écosystème de la détection d'objets.
Innovations et différences architecturales
YOLOv5: la norme en matière d'accessibilité
Introduit par Ultralytics 2020, YOLOv5 un changement de paradigme en utilisant nativement le PyTorch , ce qui a considérablement réduit les obstacles à l'entrée pour les chercheurs et les développeurs. Son architecture repose sur une dorsale CSPDarknet53 modifiée, intégrant des réseaux Cross Stage Partial (CSP) afin de réduire le nombre de paramètres tout en maintenant le flux de gradient.
L'un de ses principaux atouts réside dans ses exigences en matière de mémoire. Comparé aux anciens détecteurs à deux étages ou aux modèles à transformateur lourd tels que RT-DETR, YOLOv5 beaucoup moins CUDA pendant l'entraînement, ce qui permet d'utiliser des lots plus importants sur des GPU grand public standard. De plus, sa polyvalence intégrée de manière native prend en charge la classification d'images, la détection d'objets et la segmentation d'images de manière transparente.
YOLOv7: repousser les limites de la précision en temps réel
Sorti mi-2022, YOLOv7 sur le dépassement des limites de pointe en matière de détection en temps réel sur COCO MS COCO . Les auteurs ont présenté le réseau Extended Efficient Layer Aggregation Network (E-ELAN), qui améliore la capacité d'apprentissage du réseau sans détruire le chemin de gradient d'origine.
YOLOv7 également célèbre pour ses « bag-of-freebies entraînables », en particulier ses techniques de reparamétrage pendant l'entraînement qui convertissent plusieurs modules en une seule couche convolutive pour l'inférence, augmentant ainsi la vitesse sans sacrifier la précision. Cependant, cette méthodologie d'entraînement complexe entraîne souvent des courbes d'apprentissage plus raides et des pipelines d'exportation moins simples par rapport à Ultralytics natif Ultralytics .
Comparaison des performances
Lors de l'évaluation de ces modèles, l'équilibre entre vitesse, précision et coût de calcul est primordial. Vous trouverez ci-dessous une comparaison détaillée de leurs mesures de performance basées sur l'ensemble de données MS COCO .
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
Alors que YOLOv7 mAP absolus plus élevés sur les variantes plus grandes, YOLOv5 une gamme inégalée de modèles, allant du Nano ultra-léger (YOLOv5n) pour les appareils de pointe extrêmes à l'Extra-Large (YOLOv5x) pour l'inférence dans le cloud.
L'avantage de l'écosystème Ultralytics
L'utilité d'un modèle s'étend au-delà de son architecture brute ; l'écosystème qui l'entoure dicte la rapidité avec laquelle il peut être déployé en production. C'est là que les modèles Ultralytics excellent.
- Facilité d'utilisation : La plateforme Ultralytics et son API Python unifiée offrent une expérience utilisateur simplifiée, une syntaxe simple et une documentation complète. L'entraînement d'un jeu de données personnalisé ne nécessite aucun code passe-partout.
- Écosystème bien entretenu : Ultralytics bénéficie d'un développement actif, de mises à jour fréquentes et d'un solide support communautaire. Les intégrations avec des outils comme Comet ML et Weights & Biases sont directement intégrées.
- Efficacité de l'entraînement : Les chargeurs de données, la mise en cache intelligente et la prise en charge multi-GPU rendent les modèles Ultralytics exceptionnellement efficaces à entraîner. Les poids pré-entraînés facilement disponibles accélèrent considérablement l'apprentissage par transfert.
Exemple de code : Pour commencer
Avec Ultralytics, le déploiement d'un modèle ne nécessite que quelques lignes de code. Python suivant montre à quel point il est simple de charger, d'entraîner et d'exécuter une inférence à l'aide de la recommandation ultralytics package.
from ultralytics import YOLO
# Load a pretrained YOLOv5s model
model = YOLO("yolov5s.pt")
# Train the model on the COCO8 example dataset
# Ultralytics automatically handles data downloading and augmentation
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a sample image
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the predictions
predictions[0].show()
En revanche, l'utilisation du dépôt original YOLOv7 implique généralement le clonage de dépôts complexes, la gestion manuelle des dépendances et l'utilisation d'arguments de ligne de commande longs.
Applications concrètes et cas d'utilisation idéaux
Quand choisir YOLOv7
YOLOv7 un candidat solide pour les benchmarks académiques ou GPU hérités spécifiques où mAP maximal mAP le seul objectif et où le système est déjà adapté à ses tenseurs de sortie basés sur des ancres. Les chercheurs qui explorent l'analyse des chemins de gradient utilisent souvent YOLOv7 référence.
Quand choisir YOLOv5
YOLOv5 très apprécié dans les environnements de production en raison de sa stabilité exceptionnelle. C'est le choix idéal pour :
- Informatique mobile et périphérique : Déploiement de YOLOv5n sur iOS via CoreML ou sur Android via TFLite.
- Startups agiles : Les équipes ayant besoin de cycles d'itération rapides bénéficient de l'intégration transparente de la plateforme Ultralytics pour la gestion des ensembles de données et l'entraînement dans le cloud.
- Environnements multi-tâches : Systèmes nécessitant la détection d'objets, la classification et la segmentation simultanées.
L'avenir : passage à YOLO26
Si la comparaison YOLOv5 YOLOv7 un excellent exercice pour comprendre l'évolution de l'IA visuelle, les technologies de pointe ont continué à progresser. Lancé en janvier 2026, Ultralytics représente un bond en avant monumental, rendant les architectures plus anciennes largement obsolètes pour les nouveaux projets.
Pour les développeurs à la recherche de performances optimales, YOLO26 offre plusieurs avantages révolutionnaires par rapport à YOLOv5 YOLOv7:
- Conception de bout en bout sans NMS : En éliminant le post-traitement de la suppression non maximale, YOLO26 offre un déploiement considérablement plus simple et une latence plus rapide et constante.
- Optimiseur MuSGD : Inspiré par les innovations des LLM de Moonshot AI, cet optimiseur hybride offre un entraînement très stable et une convergence rapide.
- Vitesse Edge sans précédent : Spécifiquement optimisée pour les environnements edge, la variante nano offre une inférence CPU jusqu'à 43 % plus rapide grâce à la suppression de la Distribution Focal Loss (DFL).
- Précision supérieure : De nouvelles fonctions de perte comme ProgLoss + STAL améliorent significativement la reconnaissance des petits objets, le rendant idéal pour les images de drones et la robotique.
Que vous souhaitiez maintenir un YOLOv5 existant ou mettre en œuvre la technologie de pointe YOLO26, la Ultralytics vous fournit tous les outils nécessaires pour réussir dans le domaine de la vision par ordinateur moderne.