YOLOv10 YOLOv5: comparaison technique complète
Le choix d'une architecture de réseau neuronal adaptée est essentiel pour déployer avec succès des pipelines de vision par ordinateur en production. Cette page fournit une analyse technique approfondie comparant YOLOv10 et YOLOv5, deux modèles très influents dans l'évolution de la détection d'objets en temps réel. Si ces deux modèles ont eu un impact significatif sur la communauté de l'IA, ils représentent des époques et des philosophies différentes dans la conception de l'architecture du deep learning.
Ce guide évalue ces architectures en fonction de la précision moyenne (mAP), de la latence d'inférence, de l'efficacité des paramètres et de la prise en charge de l'écosystème, afin de vous aider à choisir le modèle le mieux adapté à vos besoins de déploiement.
Aperçus des modèles
YOLOv10 : Détection d'objets de bout en bout en temps réel
Développé par des chercheurs de l'université Tsinghua, YOLOv10 une nouvelle approche de la détection d'objets en éliminant le besoin de post-traitement.
- Auteurs : Ao Wang, Hui Chen, Lihao Liu, et al.
- Organisation :Tsinghua University
- Date : 2024-05-23
- Article de recherche :arXiv:2405.14458
- Code source :RéférentielYOLOv10
La percée déterminante de YOLOv10 sa conception NMS de bout en bout. Historiquement, YOLO s'appuyaient sur la suppression non maximale (NMS) pour filtrer les boîtes englobantes redondantes. YOLOv10 des attributions doubles cohérentes pour un entraînement NMS, ce qui réduit considérablement la variabilité de la latence d'inférence et simplifie la logique de déploiement. De plus, l'architecture se caractérise par une conception holistique axée sur l'efficacité et la précision qui optimise en profondeur divers composants afin de réduire la redondance computationnelle.
YOLOv5: la norme industrielle en matière de convivialité
Lancé peu après la création duPyTorch Ultralytics PyTorch , YOLOv5 les attentes des développeurs vis-à-vis d'un framework d'IA visuelle open source. Il reste l'une des architectures les plus largement déployées à l'échelle mondiale.
- Auteur : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- Code source :RéférentielYOLOv5
YOLOv5 réputé pour sa facilité d'utilisation et son écosystème très bien entretenu. Entièrement écrit en PyTorch, il offre une expérience « zéro à héros » fluide avec une prise en charge prête à l'emploi pour la formation, la validation et l'exportation vers des formats tels que ONNX et TensorRT. Contrairement à YOLOv10, qui se concentre principalement sur la détection pure d'objets, YOLOv5 d'une polyvalence exceptionnelle, prenant en charge la segmentation d'instances et la classification d'images au sein de la même Python unifiée.
Comparaison des performances et des indicateurs
Il est essentiel de visualiser la relation entre la vitesse et la précision pour identifier les modèles qui offrent la meilleure précision pour une contrainte de vitesse donnée. La compréhension de ces indicateurs de performance est fondamentale pour sélectionner un modèle qui correspond à vos contraintes matérielles spécifiques.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Analyse technique
- Précision (mAP) : YOLOv10 un net avantage générationnel en matière de précision. Par exemple, le modèle YOLOv10 atteint unevaleur mAP de 54,4 %, surpassant ainsi YOLOv5x (50,7 % mAP). Ce bond en avant est en grande partie dû à la stratégie d'entraînement NMS et aux améliorations architecturales introduites en 2024.
- Latence d'inférence : alors que YOLOv5 sont exceptionnellement rapides sur TensorRT T4 TensorRT bruts (par exemple, YOLOv5n à 1,12 ms), YOLOv10 complètement NMS de post-traitement NMS . Dans les déploiements pratiques de bout en bout, la conception NMS YOLOv10 offre une latence plus cohérente et déterministe, ce qui est essentiel pour les applications en temps réel telles que les véhicules autonomes et la robotique.
- Efficacité des paramètres : YOLOv10 conservent un équilibre très compétitif en termes de performances. YOLOv10 atteint mAP de 46,7 % mAP seulement 7,2 millions de paramètres, tandis que YOLOv5s atteint mAP de 37,4 % mAP 9,1 millions de paramètres.
Conseil de déploiement
Lors du déploiement sur des appareils d'IA de pointe tels que NVIDIA , les modèles sans NMS (tels que YOLOv10 YOLO26) se compilent souvent plus proprement vers TensorRT, évitant ainsi les opérations de repli vers le CPU.
Cas d'utilisation et recommandations
Le choix entre YOLOv10 YOLOv5 des exigences spécifiques de votre projet, des contraintes de déploiement et des préférences de votre écosystème.
Quand choisir YOLOv10
YOLOv10 un choix judicieux pour :
- Détection en temps réelNMS: applications bénéficiant d'une détection de bout en bout sans suppression non maximale, réduisant ainsi la complexité du déploiement.
- Compromis équilibré entre vitesse et précision : projets nécessitant un équilibre solide entre la vitesse d'inférence et la précision de détection à différentes échelles de modèle.
- Applications à latence constante : scénarios de déploiement où des temps d'inférence prévisibles sont essentiels, tels que la robotique ou les systèmes autonomes.
Quand choisir YOLOv5
YOLOv5 recommandé pour :
- Systèmes de production éprouvés : déploiements existants où track longue track YOLOv5 en matière de stabilité, sa documentation exhaustive et le soutien massif de la communauté sont appréciés.
- Formation avec ressources limitées : environnements avec GPU limitées où le pipeline de formation efficace et les faibles exigences en mémoire YOLOv5 sont avantageux.
- Prise en charge étendue des formats d'exportation : projets nécessitant un déploiement dans de nombreux formats, notamment ONNX, TensorRT, CoreMLet TFLite.
Quand choisir Ultralytics YOLO26)
Pour la plupart des nouveaux projets, Ultralytics offre la meilleure combinaison entre performances et expérience développeur :
- DéploiementNMS suppressionNMS maximale (NMS: applications nécessitant une inférence cohérente et à faible latence sans la complexité du post-traitement par suppression non maximale.
- EnvironnementsCPU: appareils sans GPU dédiée, où CPU jusqu'à 43 % plus rapide de YOLO26 offre un avantage décisif.
- Détection de petits objets : scénarios complexes tels que l'imagerie aérienne par drone ou l'analyse par capteurs IoT, où ProgLoss et STAL améliorent considérablement la précision sur les objets minuscules.
L'avantage Ultralytics
Bien que YOLOv10 d'excellentes capacités de détection, le recours à des référentiels universitaires peut parfois compliquer les pipelines de production. En utilisant le Python officiel Ultralytics , vous avez accès à un écosystème unifié qui prend en charge à la fois YOLOv5 YOLOv10, ainsi que des fonctionnalités avancées.
- Efficacité de l'entraînement :YOLO Ultralytics YOLO sont profondément optimisées pour réduire les besoins en mémoire pendant l'entraînement. Contrairement aux modèles de transformateurs lourds (tels que RT-DETR) qui nécessitent CUDA massive, vous pouvez facilement entraîner YOLOv5 YOLOv10 des GPU grand public standard.
- Intégration dans l'écosystème : l'intégration avec Ultralytics permet aux développeurs de gérer visuellement les ensembles de données, track à l'aide de Weights & Biaseset d'ajuster automatiquement les hyperparamètres.
Exemple de code : Formation continue
Grâce à la Ultralytics , passer d'une architecture à l'autre est aussi simple que de modifier la chaîne du modèle. Le pipeline d'entraînement gère automatiquement l'augmentation des données, la mise à l'échelle et la configuration de l'optimiseur.
from ultralytics import YOLO
# To use YOLOv5:
# model = YOLO("yolov5s.pt")
# To use YOLOv10:
model = YOLO("yolov10s.pt")
# Train the model on a custom dataset
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=16,
device=0, # Use GPU 0
)
# Export the trained model to ONNX format
path = model.export(format="onnx")
La nouvelle génération : Ultralytics
Si vous démarrez aujourd'hui un nouveau projet d'apprentissage automatique, nous vous recommandons vivement d'évaluer la dernière version d' Ultralytics . Lancée en janvier 2026, elle représente le nec plus ultra en combinant les meilleures innovations des cinq dernières années.
YOLO26 intègre nativement la conception NMS de bout en bout mise au point par YOLOv10, garantissant un déploiement rapide et déterministe. De plus, YOLO26 introduit plusieurs avancées décisives :
- CPU jusqu'à 43 % plus rapide : en supprimant le module Distribution Focal Loss (DFL), YOLO26 atteint des gains de vitesse considérables sur les CPU standard, ce qui en fait le choix idéal pour les déploiements mobiles et les capteurs IoT à faible consommation.
- Optimiseur MuSGD : inspiré des techniques d'entraînement des grands modèles linguistiques (LLM) telles que Kimi K2 de Moonshot AI, YOLO26 utilise un hybride de SGD Muon. Cela garantit des entraînements incroyablement stables et une convergence considérablement accélérée par rapport aux AdamW utilisés dans YOLOv10.
- ProgLoss + STAL : ces fonctions de perte avancées apportent des améliorations notables dans la reconnaissance des petits objets, ce qui est essentiel pour les applications d'imagerie par drone et de sécurité aérienne.
- Maîtrise spécifique à chaque tâche : alors que YOLOv10 strictement un détecteur de boîtes englobantes, YOLO26 offre des améliorations architecturales dédiées à toutes les tâches, notamment l'estimation de la vraisemblance résiduelle (RLE) pour la pose et des pertes angulaires spécialisées pour les boîtes englobantes orientées (OBB).
En savoir plus
Si vous explorez le domaine plus large de la détection d'objets, vous pourriez également être intéressé par une comparaison de ces architectures avec d'autres frameworks. Consultez nos analyses approfondies sur YOLO11 EfficientDet ou RT-DETR YOLOv8 pour obtenir des comparaisons plus complètes.
Que vous vous appuyiez sur l'héritage solide de YOLOv5, l'innovation NMS de YOLOv10 ou les performances de pointe inégalées de YOLO26, Ultralytics fournit les outils nécessaires pour donner vie à vos applications d'IA visuelle de manière rapide et efficace.