Ultralytics YOLO11
Vue d'ensemble
YOLO11 est la dernière itération de la série des détecteurs d'objets en temps réel. Ultralytics YOLO de détecteurs d'objets en temps réel, redéfinissant ce qui est possible avec une précision, une vitesse et une efficacité de pointe. S'appuyant sur les avancées impressionnantes des versions précédentes de YOLO , YOLO11 apporte des améliorations significatives à l'architecture et aux méthodes d'apprentissage, ce qui en fait un choix polyvalent pour un large éventail de tâches de vision par ordinateur.
Ultralytics YOLO11 🚀 Podcast generated by NotebookLM
Regarder : How to Use Ultralytics YOLO11 for Object Detection and Tracking | How to Benchmark | YOLO11 RELEASED🚀
Caractéristiques principales
- Extraction améliorée des caractéristiques : YOLO11 utilise une architecture dorsale et cervicale améliorée, qui renforce les capacités d'extraction des caractéristiques pour une détection plus précise des objets et l'exécution de tâches complexes.
- Optimisé pour l'efficacité et la rapidité : YOLO11 présente des conceptions architecturales raffinées et des pipelines de formation optimisés, offrant des vitesses de traitement plus rapides et maintenant un équilibre optimal entre la précision et la performance.
- Une plus grande précision avec moins de paramètres : Grâce aux progrès réalisés dans la conception du modèle, YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO tout en utilisant 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace sur le plan des calculs sans compromettre la précision.
- Adaptabilité à tous les environnements : YOLO11 peut être déployé de manière transparente dans différents environnements, y compris les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA , ce qui garantit une flexibilité maximale.
- Large éventail de tâches prises en charge : Qu'il s'agisse de détection d'objets, de segmentation d'instances, de classification d'images, d'estimation de la pose ou de détection d'objets orientés (OBB), YOLO11 est conçu pour répondre à un ensemble varié de défis en matière de vision par ordinateur.
Tâches et modes pris en charge
YOLO11 s'appuie sur la gamme de modèles polyvalents présentée sur le site YOLOv8, offrant un soutien accru pour diverses tâches de vision par ordinateur :
Modèle | Noms de fichiers | Tâche | Inférence | Validation | Formation | Exportation |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
DĂ©tection | âś… | âś… | âś… | âś… |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
Segmentation des instances | âś… | âś… | âś… | âś… |
YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
Pose/Points clés | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
Détection orientée | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
Classification | âś… | âś… | âś… | âś… |
Ce tableau fournit une vue d'ensemble des variantes du modèle YOLO11 , montrant leur applicabilité dans des tâches spécifiques et leur compatibilité avec des modes opérationnels tels que l'inférence, la validation, l'entraînement et l'exportation. Grâce à cette flexibilité, YOLO11 convient à un large éventail d'applications dans le domaine de la vision par ordinateur, de la détection en temps réel aux tâches de segmentation complexes.
Mesures de performance
Performance
Voir Detection Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.
Modèle | taille (pixels) |
mAPval 50-95 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Voir Segmentation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui comprennent 80 classes pré-entraînées.
Modèle | taille (pixels) |
mAPbox 50-95 |
mAPmask 50-95 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Voir les documents sur la classification pour des exemples d'utilisation de ces modèles formés sur ImageNet, qui comprennent 1000 classes préformées.
Modèle | taille (pixels) |
acc top1 |
acc top5 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) Ă 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Voir Pose Estimation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui incluent une classe pré-entraînée, "personne".
Modèle | taille (pixels) |
mAPpose 50-95 |
mAPpose 50 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Voir Oriented Detection Docs pour des exemples d'utilisation de ces modèles entraînés sur DOTAv1, qui comprend 15 classes pré-entraînées.
Modèle | taille (pixels) |
mAPtest 50 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Exemples d'utilisation
Cette section fournit des exemples simples de formation et d'inférence à l'adresse YOLO11 . Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.
Notez que l'exemple ci-dessous concerne les modèles YOLO11 Detect pour la détection d'objets. Pour d'autres tâches prises en charge, voir les documents Segmenter, Classifier, OBB et Poser.
Exemple
PyTorch préformé *.pt
ainsi que la configuration *.yaml
peuvent ĂŞtre transmis Ă la fonction YOLO()
pour créer une instance de modèle dans Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI sont disponibles pour exécuter directement les modèles :
Citations et remerciements
Ultralytics YOLO11 Publication
Ultralytics n'a pas publié de document de recherche officiel pour YOLO11 en raison de la nature rapidement évolutive des modèles. Nous nous attachons à faire progresser la technologie et à faciliter son utilisation, plutôt qu'à produire une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , veuillez consulter notre dépôt GitHub et notre documentation.
Si vous utilisez YOLO11 ou tout autre logiciel de ce dépôt dans votre travail, veuillez le citer en utilisant le format suivant :
Veuillez noter que le DOI est en attente et qu'il sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLO11 sont fournis sous les licences AGPL-3.0 et Enterprise.
FAQ
Quelles sont les principales améliorations apportées à Ultralytics YOLO11 par rapport aux versions précédentes ?
Ultralytics YOLO11 présente plusieurs avancées significatives par rapport à ses prédécesseurs. Les principales améliorations sont les suivantes
- Extraction améliorée des caractéristiques : YOLO11 utilise une architecture améliorée de la colonne vertébrale et du cou, améliorant les capacités d'extraction des caractéristiques pour une détection plus précise des objets.
- Efficacité et rapidité optimisées : Des conceptions architecturales affinées et des pipelines de formation optimisés permettent d'accélérer les vitesses de traitement tout en maintenant un équilibre entre la précision et les performances.
- Une plus grande précision avec moins de paramètres : YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO avec 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace en termes de calcul sans compromettre la précision.
- Adaptabilité à tous les environnements : YOLO11 peut être déployé dans différents environnements, y compris les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA .
- Large éventail de tâches prises en charge : YOLO11 prend en charge diverses tâches de vision artificielle telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et la détection d'objets orientés (OBB).
Comment entraîner un modèle YOLO11 pour la détection d'objets ?
L'entraînement d'un modèle YOLO11 pour la détection d'objets peut être effectué à l'aide des commandes Python ou CLI . Vous trouverez ci-dessous des exemples pour les deux méthodes :
Exemple
Pour des instructions plus détaillées, reportez-vous à la documentation du train.
Quelles tâches les modèles YOLO11 peuvent-ils accomplir ?
YOLO11 sont polyvalents et prennent en charge un large éventail de tâches de vision par ordinateur, notamment :
- DĂ©tection d'objets : Identification et localisation d'objets dans une image.
- Segmentation des instances : Détection des objets et délimitation de leurs frontières.
- Classification des images: Classer les images dans des catégories prédéfinies.
- Estimation de la pose : Détection et suivi de points clés sur des corps humains.
- Détection d'objets orientés (OBB) : Détection d'objets avec rotation pour une plus grande précision.
Pour plus d'informations sur chaque tâche, voir la documentation sur la détection, la segmentation des instances, la classification, l'estimation de la pose et la détection orientée.
Comment YOLO11 parvient-il à une plus grande précision avec moins de paramètres ?
YOLO11 permet d'obtenir une plus grande précision avec moins de paramètres grâce à des avancées dans la conception du modèle et les techniques d'optimisation. L'architecture améliorée permet une extraction et un traitement efficaces des caractéristiques, ce qui se traduit par une précision moyenne plus élevée (mAP) sur des ensembles de données tels que COCO, tout en utilisant 22 % de paramètres en moins que YOLOv8m. YOLO11 est donc efficace sur le plan des calculs sans compromettre la précision, ce qui permet de le déployer sur des appareils aux ressources limitées.
Le site YOLO11 peut-il être déployé sur des appareils périphériques ?
Oui, YOLO11 est conçu pour s'adapter à divers environnements, y compris les appareils périphériques. Son architecture optimisée et ses capacités de traitement efficaces lui permettent d'être déployé sur des appareils périphériques, des plates-formes en nuage et des systèmes prenant en charge les GPU NVIDIA . Cette flexibilité garantit que YOLO11 peut être utilisé dans diverses applications, de la détection en temps réel sur les appareils mobiles aux tâches de segmentation complexes dans les environnements en nuage. Pour plus de détails sur les options de déploiement, consultez la documentation Export.