YOLO26 vs YOLO11: un bond générationnel dans l'IA visuelle
Lors de la conception de systèmes de vision par ordinateur à la pointe de la technologie, il est essentiel de choisir le bon modèle afin d'équilibrer précision, latence et efficacité des ressources. Dans le domaine en constante évolution de l'intelligence artificielle, Ultralytics continue de repousser les limites du possible. Cette comparaison technique détaillée explore la transition entre le très populaire YOLO11 au nouveau YOLO26 révolutionnaire, fournissant aux ingénieurs et chercheurs en IA les informations nécessaires pour prendre des décisions éclairées en matière d'architecture.
Lignée du modèle et métadonnées
Les deux modèles ont été développés par Ultralytics, mais ils représentent des paradigmes différents dans l'évolution des modèles de détection d'objets et de vision multitâche.
Détails de YOLO26 :
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2026-01-14
- GitHub :Dépôt Ultralytics
- Documents :Documentation officielle YOLO26
YOLO11 :
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2024-09-27
- GitHub :Dépôt Ultralytics
- Documents :DocumentationYOLO11
Autres architectures
Bien que YOLO26 soit notre modèle en temps réel le plus avancé, les utilisateurs qui travaillent avec du matériel hautement spécialisé ou des capacités de mémoire massives peuvent également explorer des architectures basées sur des transformateurs telles que RT-DETR ou le pionnier révolutionnaire NMS, YOLOv10.
Différences et innovations architecturales
Le passage de YOLO11 YOLO26 implique des changements fondamentaux tant au niveau de l'architecture du modèle que du programme d'entraînement sous-jacent. Alors que YOLO11 une base solide pour la détection d'objets et l'apprentissage multitâche, YOLO26 remanie complètement le pipeline de déploiement pour l'informatique de pointe.
Conception de bout en bout sans NMS
L'une des améliorations les plus significatives de YOLO26 réside dans son architecture native de bout en bout. Contrairement à YOLO11, qui s'appuie sur un post-traitement par suppression non maximale (NMS) pour filtrer les cadres de sélection qui se chevauchent, YOLO26 élimine complètement cette étape. Ce concept, lancé pour la première fois dans YOLOv10, réduit considérablement la variabilité de la latence et simplifie la logique de déploiement sur divers appareils périphériques.
Suppression DFL pour une efficacité accrue des bords
YOLO11 la perte focale de distribution (DFL) pour affiner les estimations des cadres de sélection. Cependant, la DFL repose sur des opérations softmax complexes qui sont souvent mal prises en charge par les accélérateurs périphériques à faible puissance. YOLO26 supprime avec succès la DFL sans sacrifier la précision. Cette simplification architecturale se traduit par une compatibilité nettement améliorée avec les systèmes embarqués et permet à YOLO26 d'atteindre CPU jusqu'à 43 % plus rapide que son prédécesseur.
L'optimiseur MuSGD
La stabilité et la rapidité de l'entraînement sont primordiales. YOLO26 introduit l'optimiseur MuSGD, un hybride entre la descente stochastique du gradient (SGD) et Muon, fortement inspiré des innovations en matière d'entraînement LLM de Kimi K2 de Moonshot AI. Cet optimiseur apporte la stabilité de l'entraînement des modèles linguistiques à la vision par ordinateur, garantissant une convergence plus rapide et réduisant l'empreinte mémoire pendant l'entraînement par rapport aux alternatives lourdes basées sur des transformateurs.
ProgLoss et STAL
Pour les chercheurs qui travaillent avec l'imagerie aérienne ou les applications de drones, la détection de petits détails est un défi historique. YOLO26 introduit ProgLoss combiné à STAL (Scale-Targeted Attention Loss), offrant des améliorations notables dans la reconnaissance des petits objets par rapport à YOLO11.
Comparaison des performances et des indicateurs
Lorsque l'on compare les modèles côte à côte, YOLO26 démontre une nette supériorité en termes de précision et d'efficacité des périphériques, tout en conservant les exigences de mémoire incroyablement faibles caractéristiques de Ultralytics .
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
Remarque : le modèle YOLO26 nano (YOLO26n) affiche une amélioration d'environ 31 % de CPU par rapport au modèle YOLO11n (38,9 ms contre 56,1 ms), soulignant ainsi sa philosophie de conception axée sur la périphérie.
Polyvalence dans les tâches de vision par ordinateur
Les deux modèles bénéficient de Ultralytics hautement entretenu, offrant une facilité d'utilisation inégalée grâce à une Python unifiée. Ce ne sont pas seulement des détecteurs d'objets, ce sont des moteurs multitâches. Cependant, YOLO26 intègre plusieurs avancées spécifiques à certaines tâches :
- Segmentation d'instance : YOLO26 utilise une perte de segmentation sémantique affinée et un prototypage multi-échelle, générant des contours de masque plus nets que YOLO11. En savoir plus sur les workflows de segmentation.
- Estimation de la pose : en intégrant l'estimation de la log-vraisemblance résiduelle (RLE), YOLO26 améliore considérablement la précision des points clés dans les poses humaines complexes. Découvrez les capacités d'estimation de la pose.
- Boîtes englobantes orientées (OBB) : une fonction de perte angulaire spécialisée résout les problèmes historiques de discontinuité des limites, rendant YOLO26 exceptionnellement fiable pour la détection d'objets pivotés dans les flux satellites. En savoir plus sur les tâches OBB.
- Classification d'images : les deux modèles gèrent efficacement la classification à grande vitesse, YOLO26 offrant des améliorations marginales en termes de précision top-1 sur ImageNet.
Exemple de code d'entraînement et d'inférence
Ultralytics réputé pour son expérience développeur. La formation d'un modèle SOTA ou l'exécution d'un script d'inférence ne nécessite que quelques lignes de code, ce qui réduit au minimum les répétitions et optimise la productivité. De plus, la formation YOLO nécessite beaucoup moins CUDA que les grands réseaux de transformateurs.
from ultralytics import YOLO
# Load the cutting-edge YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset efficiently
# The MuSGD optimizer is automatically enabled for YOLO26
train_results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device="0", # Utilize GPU for accelerated training
)
# Perform NMS-free inference directly on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Display the clean, instant predictions
results[0].show()
Cas d'utilisation idéaux et stratégies de déploiement
Le choix entre YOLO26 et YOLO11 entièrement des contraintes de votre environnement de production.
Quand déployer YOLO26
YOLO26 est le choix idéal pour les projets modernes et innovants. Il est spécialement conçu pour :
- Edge Computing et IoT : ses CPU stupéfiantes et la suppression du DFL en font le roi des appareils tels que Raspberry Pi, Coral NPU et les processeurs mobiles.
- Analyse par drone et aérienne : l'intégration de ProgLoss + STAL lui confère une capacité unique à suivre des objets minuscules et rapides à travers des paysages étendus.
- Applications critiques en termes de latence : dans le domaine de la robotique autonome ou du contrôle qualité en fabrication, la conception NMS garantit une latence déterministe sans pics de post-traitement imprévus.
Quand conserver YOLO11
Bien que YOLO26 soit supérieur, YOLO11 un modèle incroyablement performant. Vous pouvez continuer à utiliser YOLO11 :
- Pipelines hérités : votre infrastructure de déploiement C++ existante est étroitement liée aux sorties spécifiques basées sur des ancres et à NMS des architectures plus anciennes.
- Références académiques : vous publiez des travaux de recherche et avez besoin d'une norme 2024 hautement reconnue pour évaluer vos nouveaux algorithmes.
La puissance de l'Ultralytics
Que vous déployiez YOLO11 YOLO26, l'utilisation Ultralytics vous permet de bénéficier d'un écosystème bien entretenu, avec des mises à jour fréquentes et un vaste soutien communautaire.
Pour les équipes d'entreprise, la Ultralytics fournit une solution complète pour l'annotation des données, l'entraînement des modèles et le déploiement transparent dans le cloud. De l'exportation de vos poids entraînés vers CoreML ou TensorRT, en passant par la configuration avancée des hyperparamètres, les outils fournis garantissent un cycle de vie de l'IA aussi rationalisé que possible.