YOLO11 YOLOv10: comparaison technique complète des détecteurs d'objets en temps réel
Le paysage de la vision par ordinateur en temps réel est en constante évolution, avec de nouvelles architectures repoussant les limites du possible tant sur les appareils périphériques que sur l'infrastructure cloud. Dans cette analyse technique détaillée, nous explorons les nuances entre deux modèles essentiels dans ce domaine : Ultralytics YOLO11 et YOLOv10. Tous deux représentent des avancées significatives en matière de capacités de détection d'objets, mais ils adoptent des philosophies architecturales fondamentalement différentes pour atteindre leurs performances.
Découverte de YOLO11
YOLO11 :
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation : Ultralytics
- Date : 27 septembre 2024
- GitHub : ultralytics
- Documents : yolo11
Présenté comme un outil polyvalent et puissant, YOLO11 sur des années de recherche fondamentale dans le domaine de la vision par ordinateur et de l'IA. La philosophie de conception fondamentale de YOLO11 autour de la richesse des fonctionnalités et de l'extrême polyvalence pour de multiples tâches de vision par ordinateur.
L'une des améliorations notables de YOLO11 la mise en œuvre du bloc C3k2. Ce module raffiné optimise le flux de gradient dans l'ensemble du réseau, améliorant considérablement l'efficacité des paramètres tout en conservant une grande précision. De plus, YOLO11 un mécanisme d'attention spatiale amélioré, essentiel pour identifier les éléments petits ou partiellement masqués. Cela en fait un choix exceptionnel pour les cas d'utilisation d'images aériennes et l'analyse détaillée d'images médicales.
YOLO11 une conception sans ancrage qui minimise la complexité du réglage des hyperparamètres, permettant une généralisation robuste sur un large éventail d'ensembles de données personnalisés. De plus, les besoins en mémoire pendant l'entraînement sont nettement inférieurs à ceux des architectures basées sur des transformateurs, ce qui permet aux chercheurs d'entraîner efficacement de grands modèles sur du matériel grand public standard.
Exploration de YOLOv10
YOLOv10 :
- Auteurs : Ao Wang, Hui Chen, Lihao Liu, et al.
- Organisation : Université Tsinghua
- Date : 2024-05-23
- Arxiv : https://arxiv.org/abs/2405.14458
- GitHub : https://github.com/THU-MIG/yolov10
- Documents : ultralytics
Développé par des chercheurs de l'université Tsinghua, YOLOv10 sensation en tant que pionnier de bout en bout dans la YOLO . La particularité de YOLOv10 sa méthodologie d'entraînementNMS. En utilisant des attributions doubles cohérentes pendant la phase d'entraînement, le modèle prédit naturellement exactement un cadre de sélection par objet. Cette avancée élimine complètement le besoin de suppression non maximale (NMS) pendant l'inférence, une étape de post-traitement qui introduisait historiquement des goulots d'étranglement de latence dans les pipelines de déploiement.
L'architecture introduit également une stratégie de conception holistique axée sur l'efficacité et la précision. Elle intègre un sous-échantillonnage découplé spatialement et des conceptions de blocs guidées par rang qui réduisent de manière sélective la redondance dans les étapes du réseau. Il en résulte une diminution du nombre de FLOP et une réduction de la charge de calcul sans sacrifier de manière significative la précision moyenne (mAP). Pour les applications en temps réel où chaque milliseconde compte, la suppression du NMS un graphe d'inférence déterministe parfaitement adapté aux dispositifs d'IA de pointe.
Métriques de performance et benchmarks
Lors de l'évaluation de ces deux modèles, nous examinons l'équilibre entre la précision, le nombre de paramètres et la vitesse. Le tableau suivant présente leur comparaison à différentes échelles sur l'ensemble COCO .
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
Comme le montrent les indicateursYOLO , YOLO11 obtient YOLO11 mAP légèrement supérieurs pour toutes ses variantes, en particulier pour les modèles plus volumineux. La conception NMS de YOLOv10 des temps d'inférence de bout en bout très stables, mais YOLO11 offre YOLO11 un débit exceptionnel lorsqu'il est optimisé avec TensorRT sur NVIDIA .
Exportation pour la production
Lorsque vous préparez vos modèles pour le déploiement, il est essentiel de les exporter dans des formats optimisés. YOLO11 YOLOv10 tous deux être exportés de manière transparente vers des formats tels que ONNX TensorRT du Ultralytics . Consultez notre guide sur les options de déploiement des modèles pour obtenir des instructions détaillées.
L'avantage de l'écosystème Ultralytics
Si les indicateurs de performance individuels sont importants, c'est le cadre global qui détermine la réussite pratique d'un projet d'apprentissage automatique. C'est là que YOLO11, en tant que membre à part entière de Ultralytics , révèle tout son potentiel.
Ultralytics offre une expérience utilisateur incroyablement simplifiée. Grâce à une Python simple et unifiée, les développeurs peuvent effectuer des tâches qui vont au-delà des simples cadres de sélection. YOLO11 la segmentation d'instances native, l'estimation de pose, la classification d'images et la détection de cadres de sélection orientés (OBB) dès son installation. Cette immense polyvalence fait souvent défaut dans les référentiels de recherche spécialisés.
De plus, l'écosystème s'appuie sur une documentation complète et le soutien actif de la communauté. Intégrations avec des outils tels que Weights & Biases pour le suivi des expériences, et OpenVINO pour l'optimisation Intel , sont directement intégrées à la bibliothèque. La formation d'un modèle nécessite un minimum de code standard et bénéficie de processus de formation très efficaces qui requièrent moins CUDA que les modèles de transformateurs lourds tels que RT-DETR.
Exemple pratique de code
La formation et l'exécution d'inférences avec Ultralytics conçues pour être aussi intuitives que possible. L'API identique gère YOLOv10 à la fois YOLO11 YOLOv10 .
from ultralytics import YOLO
# Initialize the model (YOLO11n or YOLOv10n)
model = YOLO("yolo11n.pt")
# Train the model efficiently on a custom dataset
# Ultralytics automatically handles hyperparameters and memory optimization
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)
# Run inference on an image
inference_results = model("https://ultralytics.com/images/bus.jpg")
# Display the detected objects
inference_results[0].show()
Cas d'utilisation et recommandations
Le choix entre YOLO11 YOLOv10 des exigences spécifiques de votre projet, des contraintes de déploiement et des préférences de votre écosystème.
Quand choisir YOLO11
YOLO11 un excellent choix pour :
- Déploiement en production : applications commerciales sur des appareils tels que Raspberry Pi ou NVIDIA , où la fiabilité et la maintenance active sont primordiales.
- Applications de vision multitâches : projets nécessitant la détection, la segmentation, l'estimation de la pose et l'OBB dans un cadre unique et unifié.
- Prototypage et déploiement rapides : équipes qui doivent passer rapidement de la collecte de données à la production à l'aide de Python Ultralytics simplifiée.
Quand choisir YOLOv10
YOLOv10 recommandé pour :
- Détection en temps réelNMS: applications bénéficiant d'une détection de bout en bout sans suppression non maximale, réduisant ainsi la complexité du déploiement.
- Compromis équilibré entre vitesse et précision : projets nécessitant un équilibre solide entre la vitesse d'inférence et la précision de détection à différentes échelles de modèle.
- Applications à latence constante : scénarios de déploiement où des temps d'inférence prévisibles sont essentiels, tels que la robotique ou les systèmes autonomes.
Quand choisir Ultralytics YOLO26)
Pour la plupart des nouveaux projets, Ultralytics offre la meilleure combinaison entre performances et expérience développeur :
- DéploiementNMS suppressionNMS maximale (NMS: applications nécessitant une inférence cohérente et à faible latence sans la complexité du post-traitement par suppression non maximale.
- EnvironnementsCPU: appareils sans GPU dédiée, où CPU jusqu'à 43 % plus rapide de YOLO26 offre un avantage décisif.
- Détection de petits objets : scénarios complexes tels que l'imagerie aérienne par drone ou l'analyse par capteurs IoT, où ProgLoss et STAL améliorent considérablement la précision sur les objets minuscules.
La prochaine génération : YOLO26
Alors que YOLOv10 le paradigme révolutionnaire NMS et que YOLO11 la polyvalence multitâche, le domaine de l'IA évolue rapidement. Pour les développeurs qui lancent aujourd'hui de nouveaux déploiements de production, nous recommandons vivement d'explorer Ultralytics .
Sorti en janvier 2026, YOLO26 combine le meilleur des deux mondes. Il adopte nativement la conception NMS de bout en bout lancée par YOLOv10, ce qui simplifie considérablement le pipeline de déploiement et garantit une latence constante. De plus, YOLO26 intègre des optimisations spécialisées pour l'edge computing. En exécutant la suppression DFL (Distribution Focal Loss), l'architecture garantit une exportabilité plus facile et permet CPU jusqu'à 43 % plus rapide par rapport aux modèles existants, ce qui en fait le choix idéal pour les appareils IoT à faible consommation et les applications mobiles.
YOLO26 apporte également la stabilité de l'entraînement des grands modèles linguistiques (LLM) à la vision par ordinateur grâce à l'optimiseur innovant MuSGD, un hybride inspiré des recherches de pointe en matière d'IA. Associé aux fonctions de perte ProgLoss + STAL, YOLO26 offre une précision inégalée sur les petits objets, ce qui est essentiel pour la détection détaillée des vidéos de circulation et l'automatisation robotique complexe.
Conclusion
Le choix du modèle de vision approprié dépend de vos contraintes opérationnelles spécifiques. YOLOv10 une étape importante dans le monde universitaire, prouvant que NMS être efficacement éliminé du pipeline de détection. Cependant, pour un équilibre supérieur entre performances, polyvalence des tâches et outils de déploiement transparents, YOLO11 offre une solution robuste et prête à l'emploi pour les entreprises.
Pour les ingénieurs qui recherchent une technologie de pointe, alliant simplicité de bout en bout et performances exceptionnelles, la migration vers la dernière version YOLO26 est la solution idéale. En tirant parti de la Ultralytics complète Ultralytics , vous vous assurez que vos projets reposent sur une base bien entretenue, hautement efficace et pérenne.