YOLOv10 YOLOv5: comparaison technique complète
Choisir la bonne architecture de réseau neuronal est essentiel pour déployer avec succès des pipelines de vision par ordinateur en production. Cette page propose une analyse technique approfondie comparant YOLOv10 et YOLOv5, deux modèles très influents dans l'évolution de la détection d'objets en temps réel. Bien que les deux modèles aient eu un impact significatif sur la communauté de l'IA, ils représentent des époques et des philosophies différentes en matière de conception d'architectures d'apprentissage profond.
Ce guide évalue ces architectures en fonction de la précision moyenne (mAP), de la latence d'inférence, de l'efficacité des paramètres et de la prise en charge de l'écosystème, afin de vous aider à choisir le modèle le mieux adapté à vos besoins de déploiement.
Aperçus des modèles
YOLOv10 : Détection d'objets de bout en bout en temps réel
Développé par des chercheurs de l'Université Tsinghua, YOLOv10 a introduit une approche novatrice de la détection d'objets en éliminant le besoin de post-traitement.
- Auteurs : Ao Wang, Hui Chen, Lihao Liu, et al.
- Organisation :Tsinghua University
- Date : 2024-05-23
- Article de recherche :arXiv:2405.14458
- Code source :Dépôt GitHub de YOLOv10
La percée déterminante de YOLOv10 sa conception NMS de bout en bout. Historiquement, YOLO s'appuyaient sur la suppression non maximale (NMS) pour filtrer les boîtes englobantes redondantes. YOLOv10 des attributions doubles cohérentes pour un entraînement NMS, ce qui réduit considérablement la variabilité de la latence d'inférence et simplifie la logique de déploiement. De plus, l'architecture se caractérise par une conception holistique axée sur l'efficacité et la précision qui optimise en profondeur divers composants afin de réduire la redondance computationnelle.
YOLOv5: la norme industrielle en matière de convivialité
Lancé peu après la création duPyTorch Ultralytics PyTorch , YOLOv5 les attentes des développeurs vis-à-vis d'un framework d'IA visuelle open source. Il reste l'une des architectures les plus largement déployées à l'échelle mondiale.
- Auteur : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- Code source :Dépôt GitHub de YOLOv5
YOLOv5 réputé pour sa facilité d'utilisation et son écosystème très bien entretenu. Entièrement écrit en PyTorch, il offre une expérience « zéro à héros » fluide avec une prise en charge prête à l'emploi pour la formation, la validation et l'exportation vers des formats tels que ONNX et TensorRT. Contrairement à YOLOv10, qui se concentre principalement sur la détection pure d'objets, YOLOv5 d'une polyvalence exceptionnelle, prenant en charge la segmentation d'instances et la classification d'images au sein de la même Python unifiée.
Comparaison des performances et des indicateurs
Il est essentiel de visualiser la relation entre la vitesse et la précision pour identifier les modèles qui offrent la meilleure précision pour une contrainte de vitesse donnée. La compréhension de ces indicateurs de performance est fondamentale pour sélectionner un modèle qui correspond à vos contraintes matérielles spécifiques.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Analyse technique
- Précision (mAP) : YOLOv10 démontre un net avantage générationnel en termes de précision. Par exemple, le modèle YOLOv10-X atteint un mAPval de 54,4 %, surpassant YOLOv5x (50,7 % de mAP). Ce bond est largement dû à la stratégie d'entraînement sans NMS et aux raffinements architecturaux introduits en 2024.
- Latence d'Inférence : Alors que les modèles YOLOv5 sont exceptionnellement rapides sur les benchmarks bruts T4 TensorRT (par exemple, YOLOv5n à 1,12 ms), YOLOv10 élimine entièrement l'étape de post-traitement NMS. Dans les déploiements pratiques de bout en bout, la conception sans NMS de YOLOv10 offre une latence plus cohérente et déterministe, ce qui est essentiel pour les applications en temps réel comme les véhicules autonomes et la robotique.
- Efficacité des paramètres : Les modèles YOLOv10 maintiennent un équilibre performance très compétitif. YOLOv10-S atteint 46,7 % de mAP avec seulement 7,2 millions de paramètres, tandis que YOLOv5s atteint 37,4 % de mAP avec 9,1 millions de paramètres.
Conseil de déploiement
Lors du déploiement sur des appareils d'IA de pointe tels que NVIDIA , les modèles sans NMS (tels que YOLOv10 YOLO26) se compilent souvent plus proprement vers TensorRT, évitant ainsi les opérations de repli vers le CPU.
Cas d'utilisation et recommandations
Le choix entre YOLOv10 et YOLOv5 dépend des exigences spécifiques de votre projet, des contraintes de déploiement et des préférences de l'écosystème.
Quand choisir YOLOv10
YOLOv10 un choix judicieux pour :
- Détection en temps réel sans NMS : Applications qui bénéficient d'une détection de bout en bout sans Non-Maximum Suppression, réduisant ainsi la complexité du déploiement.
- Compromis équilibrés vitesse-précision: Projets nécessitant un équilibre solide entre la vitesse d'inférence et la précision de détection sur diverses échelles de modèles.
- Applications à latence constante : Scénarios de déploiement où des temps d'inférence prévisibles sont critiques, tels que la robotique ou les systèmes autonomes.
Quand choisir YOLOv5
YOLOv5 recommandé pour :
- Systèmes de Production Éprouvés : Déploiements existants où la longue expérience de YOLOv5 en matière de stabilité, sa documentation exhaustive et son support communautaire massif sont appréciés.
- Entraînement à ressources limitées : Environnements avec des ressources GPU limitées où le pipeline d'entraînement efficace de YOLOv5 et les exigences de mémoire inférieures sont avantageux.
- Prise en charge étendue des formats d'exportation : Projets nécessitant un déploiement sur de nombreux formats, y compris ONNX, TensorRT, CoreML et TFLite.
Quand choisir Ultralytics YOLO26)
Pour la plupart des nouveaux projets, Ultralytics offre la meilleure combinaison entre performances et expérience développeur :
- Déploiement Edge sans NMS : Applications nécessitant une inférence cohérente et à faible latence, sans la complexité du post-traitement de la Non-Maximum Suppression.
- Environnements uniquement CPU : Les appareils sans accélération GPU dédiée, où l'inférence CPU de YOLO26, jusqu'à 43 % plus rapide, offre un avantage décisif.
- Détection de petits objets: Scénarios difficiles comme l'imagerie aérienne par drone ou l'analyse de capteurs IoT où ProgLoss et STAL augmentent significativement la précision sur les objets minuscules.
L'avantage Ultralytics
Bien que YOLOv10 d'excellentes capacités de détection, le recours à des référentiels universitaires peut parfois compliquer les pipelines de production. En utilisant le Python officiel Ultralytics , vous avez accès à un écosystème unifié qui prend en charge à la fois YOLOv5 YOLOv10, ainsi que des fonctionnalités avancées.
- Efficacité de l'entraînement : Les architectures Ultralytics YOLO sont profondément optimisées pour des exigences de mémoire inférieures pendant l'entraînement. Contrairement aux modèles de transformeurs lourds (tels que RT-DETR) qui nécessitent une mémoire CUDA massive, vous pouvez entraîner confortablement YOLOv5 et YOLOv10 sur des GPU grand public standards.
- Intégration de l'écosystème : L'intégration avec la plateforme Ultralytics permet aux développeurs de gérer visuellement les ensembles de données, de track les expériences à l'aide de Weights & Biases et d'ajuster automatiquement les hyperparamètres.
Exemple de code : Formation continue
Grâce à la Ultralytics , passer d'une architecture à l'autre est aussi simple que de modifier la chaîne du modèle. Le pipeline d'entraînement gère automatiquement l'augmentation des données, la mise à l'échelle et la configuration de l'optimiseur.
from ultralytics import YOLO
# To use YOLOv5:
# model = YOLO("yolov5s.pt")
# To use YOLOv10:
model = YOLO("yolov10s.pt")
# Train the model on a custom dataset
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=16,
device=0, # Use GPU 0
)
# Export the trained model to ONNX format
path = model.export(format="onnx")
La nouvelle génération : Ultralytics
Si vous démarrez aujourd'hui un nouveau projet d'apprentissage automatique, nous vous recommandons vivement d'évaluer la dernière version d' Ultralytics . Lancée en janvier 2026, elle représente le nec plus ultra en combinant les meilleures innovations des cinq dernières années.
YOLO26 intègre nativement la conception NMS de bout en bout mise au point par YOLOv10, garantissant un déploiement rapide et déterministe. De plus, YOLO26 introduit plusieurs avancées décisives :
- Inférence CPU jusqu'à 43 % plus rapide : En supprimant le module Distribution Focal Loss (DFL), YOLO26 réalise des accélérations massives sur les CPU standards, ce qui en fait le choix privilégié pour le déploiement mobile et les capteurs IoT à faible consommation.
- Optimiseur MuSGD : Inspiré par les techniques d'entraînement des grands modèles linguistiques (LLM) comme Kimi K2 de Moonshot AI, YOLO26 utilise un hybride de SGD et Muon. Cela garantit des exécutions d'entraînement incroyablement stables et une convergence considérablement accélérée par rapport aux optimiseurs AdamW utilisés dans YOLOv10.
- ProgLoss + STAL: Ces fonctions de perte avancées apportent des améliorations notables à la reconnaissance des petits objets, ce qui est essentiel pour l'imagerie par drone et les applications de sécurité aérienne.
- Maîtrise spécifique aux tâches : Alors que YOLOv10 est strictement un détecteur de boîtes englobantes, YOLO26 offre des améliorations architecturales dédiées pour toutes les tâches, y compris l'estimation du log-vraisemblance résiduel (RLE) pour la pose et des pertes angulaires spécialisées pour les boîtes englobantes orientées (obb).
En savoir plus
Si vous explorez le domaine plus large de la détection d'objets, vous pourriez également être intéressé par une comparaison de ces architectures avec d'autres frameworks. Consultez nos analyses approfondies sur YOLO11 EfficientDet ou RT-DETR YOLOv8 pour obtenir des comparaisons plus complètes.
Que vous vous appuyiez sur l'héritage solide de YOLOv5, l'innovation NMS de YOLOv10 ou les performances de pointe inégalées de YOLO26, Ultralytics fournit les outils nécessaires pour donner vie à vos applications d'IA visuelle de manière rapide et efficace.