YOLO11 YOLO26 : l'évolution de l'IA visuelle de nouvelle génération
L'évolution rapide de la vision par ordinateur repousse sans cesse les limites en matière de vitesse, de précision et d'efficacité de déploiement. Dans le domaine de la détection d'objets en temps réel, Ultralytics établit constamment la norme. Cette comparaison technique explore la transition entre le très populaire YOLO11 au très performant YOLO26, en analysant leurs architectures, leurs mesures de performance et leurs scénarios de déploiement idéaux.
Que vous développiez des systèmes de livraison par drone ou optimisiez un pipeline de fabrication intelligent à l'échelle mondiale, comprendre les nuances entre ces deux modèles vous aidera à créer des solutions d'IA robustes et pérennes.
Lignée et écosystème du modèle
Les deux modèles bénéficient de Ultralytics complet Ultralytics , caractérisé par son API simple, sa maintenance continue et sa communauté dynamique. Ils offrent une polyvalence inégalée, prenant naturellement en charge la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de poses et les tâches OBB (Oriented Bounding Box) dès leur installation.
YOLO11: la norme établie
Sorti fin 2024, YOLO11 les avancées des générations précédentes, consolidant ainsi sa place en tant que machine fiable pour les environnements de production.
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2024-09-27
- GitHub :https://github.com/ultralytics/ultralytics
- Docs :Documentation YOLO11
YOLO26 : La nouvelle frontière
Lancé début 2026, YOLO26 représente un changement de paradigme dans le domaine de l'informatique en périphérie et de l'architecture de bout en bout, offrant des améliorations significatives en termes de vitesse de traitement et de facilité d'intégration.
- Auteurs : Glenn Jocher et Jing Qiu
- Organisation :Ultralytics
- Date : 2026-01-14
- GitHub :https://github.com/ultralytics/ultralytics
- Docs :Documentation YOLO26
Gestion des données et des déploiements
YOLO11 YOLO26 sont tous deux entièrement intégrés à la Ultralytics , offrant des flux de travail fluides et sans code pour l'annotation des ensembles de données, la formation dans le cloud et la surveillance de la flotte.
Innovations architecturales
Alors que YOLO11 sur des méthodes de post-traitement traditionnelles qui alimentent la vision par ordinateur depuis des années, YOLO26 introduit plusieurs avancées structurelles conçues pour éliminer les goulots d'étranglement.
Conception de bout en bout sans NMS
L'une des améliorations les plus significatives de YOLO26 réside dans son architecture native de bout en bout. Elle élimine le post-traitement par suppression non maximale (NMS), un concept introduit pour la première fois dans YOLOv10. Le contournement NMS simplifie NMS le pipeline de déploiement et garantit une latence constante, ce qui est essentiel pour les applications en temps réel telles que les algorithmes de conduite autonome.
Suppression DFL pour l'optimisation des bords
YOLO26 supprime la perte focale de distribution (DFL). Si la DFL était utile dans YOLO11 une localisation fine, sa suppression simplifie le graphe d'exportation du réseau. Cette modification garantit une compatibilité améliorée avec le matériel à faible consommation d'énergie, faisant de YOLO26 une véritable puissance sur les appareils périphériques tels que le Raspberry Pi ou le NVIDIA .
Optimiseur MuSGD
S'inspirant des mécanismes d'entraînement des grands modèles linguistiques (LLM), en particulier Kimi K2 de Moonshot AI, YOLO26 utilise l'optimiseur révolutionnaire MuSGD. Cet hybride de la descente stochastique du gradient (SGD) et de Muon offre des cycles d'entraînement remarquablement stables, convergeant beaucoup plus rapidement que les AdamW standard utilisés dans les architectures plus anciennes.
Fonctions de perte avancées
YOLO26 intègre ProgLoss + STAL (Progressive Loss and Scale-Aware Task Alignment Learning). Cette combinaison améliore considérablement la détection des objets petits et densément regroupés. De plus, YOLO26 introduit des améliorations spécifiques à certaines tâches : un prototype multi-échelle dédié à la segmentation sémantique, l'estimation de la vraisemblance résiduelle (RLE) pour les estimations complexes de la posture humaine, et une perte d'angle spécialisée pour atténuer les problèmes de limites dans les tâches de détection OBB.
Comparaison des performances
Lors de l'évaluation de ces modèles, l'équilibre entre le nombre de paramètres, la complexité computationnelle (FLOP) et la vitesse détermine le choix du matériel. YOLO26 cible spécifiquement la vitesse CPU CPU , atteignant CPU jusqu'à 43 % plus rapide que son prédécesseur.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
Comme démontré, YOLO26 Nano (YOLO26n) gagne considérablement en précision tout en réduisant le temps CPU de 56,1 ms à 38,9 ms grâce à ONNX .
Exportation pour une vitesse maximale
Pour tirer le maximum de performances de ces modèles, exportez-les à l'aide de TensorRT sur NVIDIA ou OpenVINO pour Intel . La conception NMS de YOLO26 rend ce processus d'exportation plus fluide que jamais.
Cas d'utilisation et applications réelles
Le choix entre YOLO11 YOLO26 dépend en grande partie de votre infrastructure spécifique et des objectifs de votre projet.
Edge Computing et IoT
Pour les applications soumises à des contraintes en termes de puissance et de matériel, telles que la surveillance agricole intelligente via des drones ou les systèmes d'alarme de sécurité locaux, YOLO26 est le champion incontesté. La suppression du DFL et l'augmentation de 43 % de CPU vous permettent d'exécuter des modèles de vision complexes sur des appareils sans GPU dédié tout en conservant des fréquences d'images élevées.
Cloud et échelle d'entreprise
YOLO11 reste un choix idéal pour les solutions d'entreprise où d'énormes fermes de serveurs sont déjà optimisées pour ses tensor . Il convient parfaitement à l'analyse vidéo basée sur le cloud et aux pipelines de traitement multimédia à grande échelle qui sont déjà profondément intégrés à ses formats de sortie spécifiques.
Multitâche complexe
Si votre projet nécessite une précision extrême sur des objets minuscules, comme la détection de défauts sur un circuit imprimé ou le suivi de véhicules éloignés dans des images aériennes, la mise en œuvre de ProgLoss + STAL dans YOLO26 offre une amélioration notable du rappel et de la précision pour ces cas limites difficiles.
Efficacité de la formation et exigences en matière de mémoire
L'un des principaux avantages du Ultralytics réside dans son empreinte mémoire extrêmement faible pendant l'entraînement. Contrairement aux transformateurs de vision massifs tels que RT-DETR ou l'ancien YOLOv8 qui peuvent consommer d'énormes quantités de CUDA , YOLO11 YOLO26 sont tous deux optimisés pour s'entraîner efficacement sur du matériel grand public.
L'intégration de l'optimiseur MuSGD dans YOLO26 améliore encore cette fonctionnalité en garantissant que le modèle trouve plus rapidement les poids optimaux, ce qui réduit le nombre total d'heures GPU et les coûts de cloud computing.
Voici un exemple simple illustrant à quel point il est facile de former le dernier modèle YOLO26 à l'aide de Python native :
from ultralytics import YOLO
# Initialize the YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The MuSGD optimizer and efficient memory management are handled automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)
# Run a quick validation to verify the mAP metrics
metrics = model.val()
# Export the trained model to ONNX for fast CPU inference
model.export(format="onnx")
Explorer des architectures alternatives
Bien que YOLO26 représente le summum de la détection en temps réel, il peut être utile d'explorer d'autres modèles dans la Ultralytics . Pour les utilisateurs liés à des environnements hérités, des architectures antérieures telles que YOLOv5 offrent toujours des performances robustes. Pour les capacités zero-shot où il n'est pas possible de définir les classes à l'avance, YOLO propose une détection à vocabulaire ouvert alimentée par des invites textuelles.
Conclusion
Le passage de YOLO11 YOLO26 n'est pas une simple mise à jour incrémentielle, mais une refonte structurelle du fonctionnement des modèles de détection d'objets en temps réel en production. En supprimant les étapes de post-traitement complexes et en optimisant l'exécution en périphérie, YOLO26 s'impose comme le choix privilégié des développeurs modernes. S'appuyant sur Ultralytics robuste Ultralytics et une documentation complète, la mise à niveau vers YOLO26 garantit des déploiements plus rapides, un apprentissage stable et une précision SOTA pour pratiquement toutes les tâches de vision par ordinateur.