Passer au contenu

Ultralytics YOLO26

Prochainement ⚠️

🚧 Les modèles YOLO26 sont toujours en cours de développement et n'ont pas encore été publiés. Les chiffres de performance indiqués ici ne sont que des aperçus. Les téléchargements et les versions finales suivront bientôt — restez informé via YOLO Vision 2025.

Aperçu

Ultralytics YOLO26 est la dernière évolution de la série YOLO de détecteurs d'objets en temps réel, conçue dès le départ pour les appareils périphériques et à faible consommation d'énergie. Il introduit une conception simplifiée qui supprime la complexité inutile tout en intégrant des innovations ciblées pour offrir un déploiement plus rapide, plus léger et plus accessible.

L'architecture de YOLO26 est guidée par trois principes fondamentaux :

  • Simplicité : YOLO26 est un modèle natif de bout en bout, produisant des prédictions directement sans avoir besoin de suppression non maximale (NMS). En éliminant cette étape de post-traitement, l'inférence devient plus rapide, plus légère et plus facile à déployer dans les systèmes du monde réel. Cette approche révolutionnaire a été initiée dans YOLOv10 par Ao Wang à l'université de Tsinghua et a été perfectionnée dans YOLO26.
  • Efficacité du déploiement : La conception de bout en bout supprime une étape entière du pipeline, simplifiant considérablement l'intégration, réduisant la latence et rendant le déploiement plus robuste dans divers environnements.
  • Innovation en matière d'entraînement : YOLO26 introduit l'optimiseur MuSGD, un hybride de SGD et de Muon — inspiré des percées de Kimi K2 de Moonshot AI dans l'entraînement LLM. Cet optimiseur apporte une stabilité améliorée et une convergence plus rapide, transférant les avancées de l'optimisation des modèles linguistiques à la vision par ordinateur.

Ensemble, ces innovations offrent une famille de modèles qui atteint une plus grande précision sur les petits objets, offre un déploiement transparent et s'exécute jusqu'à 43 % plus rapidement sur les CPU — faisant de YOLO26 l'un des modèles YOLO les plus pratiques et les plus déployables à ce jour pour les environnements aux ressources limitées.

Graphiques de comparaison d'Ultralytics YOLO26

Principales caractéristiques

  • Suppression de DFL
    Le module Distribution Focal Loss (DFL), bien qu'efficace, compliquait souvent l'exportation et limitait la compatibilité matérielle. YOLO26 supprime complètement DFL, simplifiant l'inférence et élargissant la prise en charge des appareils périphériques et à faible consommation d'énergie.

  • Inférence NMS sans fin à fin
    Contrairement aux détecteurs traditionnels qui s'appuient sur NMS comme étape de post-traitement distincte, YOLO26 est nativement de bout en bout. Les prédictions sont générées directement, ce qui réduit la latence et rend l'intégration dans les systèmes de production plus rapide, plus légère et plus fiable.

  • ProgLoss + STAL
    L'amélioration des fonctions de perte augmente la précision de la détection, avec des améliorations notables dans la reconnaissance des petits objets, une exigence essentielle pour l'IoT, la robotique, l'imagerie aérienne et d'autres applications périphériques.

  • Optimiseur MuSGD
    Un nouvel optimiseur hybride qui combine SGD avec Muon. Inspiré par Kimi K2 de Moonshot AI, MuSGD introduit des méthodes d'optimisation avancées de l'entraînement LLM dans la vision par ordinateur, permettant un entraînement plus stable et une convergence plus rapide.

  • Inférence CPU jusqu'à 43 % plus rapide
    Spécialement optimisé pour l'informatique en périphérie, YOLO26 offre une inférence CPU considérablement plus rapide, garantissant des performances en temps réel sur les appareils sans GPU.


Tâches et modes pris en charge

YOLO26 est conçu comme une famille de modèles multitâches, étendant la polyvalence de YOLO à divers défis de vision par ordinateur :

Modèle Tâche Inférence Validation Entraînement Exporter
YOLO26 Détection
YOLO26-seg Segmentation d'instance
YOLO26-pose Pose/Points clés
YOLO26-obb Détection orientée
YOLO26-cls Classification

Ce cadre unifié garantit que YOLO26 est applicable à la détection en temps réel, à la segmentation, à la classification, à l'estimation de pose et à la détection d'objets orientés — le tout avec prise en charge de l'entraînement, de la validation, de l'inférence et de l'exportation.


Mesures de performance

Aperçu des performances

Les benchmarks suivants sont des aperçus préliminaires. Les chiffres finaux et les poids téléchargeables seront publiés une fois la formation terminée.

Formé sur COCO avec 80 classes pré-entraînées. Consultez Detection Docs pour connaître l'utilisation une fois les modèles publiés.

Modèle Taille
(pixels)
mAPval
50-95(e2e)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLO26n 640 39.8 40.3 38.90 ± 0.7 1,7 ± 0,0 2.4 5.4
YOLO26s 640 47.2 47.6 87.16 ± 0.9 2.7 ± 0.0 9.5 20.7
YOLO26m 640 51.5 51.7 220.0 ± 1.4 4,9 ± 0,1 20.4 68.2
YOLO26l 640 53.0* 53.4* 286.17 ± 2.0* 6.5 ± 0.2* 24.8 86.4
YOLO26x 640 - - - - - -

*Les métriques pour YOLO26l et YOLO26x sont en cours d'élaboration. Les benchmarks finaux seront ajoutés ici.

Métriques de performance à venir.

Métriques de performance à venir.

Métriques de performance à venir.

Métriques de performance à venir.


Citations et remerciements

Publication Ultralytics YOLO26

Ultralytics n'a pas publié d'article de recherche formel pour YOLO26 en raison de la nature rapidement évolutive des modèles. Au lieu de cela, nous nous concentrons sur la fourniture de modèles de pointe et sur leur facilité d'utilisation. Pour les dernières mises à jour sur les fonctionnalités, les architectures et l'utilisation de YOLO, consultez notre dépôt GitHub et notre documentation.

Si vous utilisez YOLO26 ou d'autres logiciels Ultralytics dans votre travail, veuillez le citer comme suit:

@software{yolo26_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO26},
  version = {26.0.0},
  year = {2025},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

DOI en attente. YOLO26 est disponible sous les licences AGPL-3.0 et Entreprise.


FAQ

Quelles sont les principales améliorations de YOLO26 par rapport à YOLO11 ?

  • Suppression de DFL : Simplifie l'exportation et élargit la compatibilité Edge
  • Inférence NMS-Free de bout en bout : Élimine NMS pour un déploiement plus rapide et plus simple
  • ProgLoss + STAL : Améliore la précision, en particulier sur les petits objets
  • Optimiseur MuSGD : Combine SGD et Muon (inspiré du Kimi K2 de Moonshot) pour une formation plus stable et efficace
  • Inférence CPU jusqu'à 43 % plus rapide : Gains de performance majeurs pour les appareils utilisant uniquement le CPU

Quelles tâches YOLO26 prendra-t-il en charge ?

YOLO26 est conçu comme une famille de modèles unifiée, fournissant une prise en charge de bout en bout pour plusieurs tâches de vision par ordinateur :

Chaque variante de taille (n, s, m, l, x) devrait prendre en charge toutes les tâches lors de la publication.

Pourquoi YOLO26 est-il optimisé pour le déploiement en périphérie ?

YOLO26 offre des performances de pointe en périphérie avec :

  • Inférence CPU jusqu'à 43 % plus rapide
  • Taille du modèle et encombrement mémoire réduits
  • Architecture simplifiée pour la compatibilité (pas de DFL, pas de NMS)
  • Formats d'exportation flexibles, notamment TensorRT, ONNX, CoreML, TFLite et OpenVINO

Quand les modèles YOLO26 seront-ils disponibles ?

Les modèles YOLO26 sont toujours en cours d'entraînement et ne sont pas encore open source. Les aperçus des performances sont présentés ici, avec des téléchargements et des versions officiels prévus dans un avenir proche. Consultez YOLO Vision 2025 pour les présentations de YOLO26.



📅C réé il y a 21 jours ✏️ Mis à jour il y a 2 jours

Commentaires