Skip to content

Ultralytics YOLO11

Vue d'ensemble

YOLO11 est la dernière itération de la série des détecteurs d'objets en temps réel. Ultralytics YOLO de détecteurs d'objets en temps réel, redéfinissant ce qui est possible avec une précision, une vitesse et une efficacité de pointe. S'appuyant sur les avancées impressionnantes des versions précédentes de YOLO , YOLO11 apporte des améliorations significatives à l'architecture et aux méthodes d'apprentissage, ce qui en fait un choix polyvalent pour un large éventail de tâches de vision par ordinateur.

Ultralytics YOLO11 Graphiques de comparaison

Ultralytics YOLO11 🚀 Podcast generated by NotebookLM



Regarder : How to Use Ultralytics YOLO11 for Object Detection and Tracking | How to Benchmark | YOLO11 RELEASED🚀

Caractéristiques principales

  • Extraction amĂ©liorĂ©e des caractĂ©ristiques : YOLO11 utilise une architecture dorsale et cervicale amĂ©liorĂ©e, qui renforce les capacitĂ©s d'extraction des caractĂ©ristiques pour une dĂ©tection plus prĂ©cise des objets et l'exĂ©cution de tâches complexes.
  • OptimisĂ© pour l'efficacitĂ© et la rapiditĂ© : YOLO11 prĂ©sente des conceptions architecturales raffinĂ©es et des pipelines de formation optimisĂ©s, offrant des vitesses de traitement plus rapides et maintenant un Ă©quilibre optimal entre la prĂ©cision et la performance.
  • Une plus grande prĂ©cision avec moins de paramètres : Grâce aux progrès rĂ©alisĂ©s dans la conception du modèle, YOLO11m atteint une prĂ©cision moyenne plus Ă©levĂ©e (mAP) sur l'ensemble de donnĂ©es COCO tout en utilisant 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace sur le plan des calculs sans compromettre la prĂ©cision.
  • AdaptabilitĂ© Ă  tous les environnements : YOLO11 peut ĂŞtre dĂ©ployĂ© de manière transparente dans diffĂ©rents environnements, y compris les appareils pĂ©riphĂ©riques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA , ce qui garantit une flexibilitĂ© maximale.
  • Large Ă©ventail de tâches prises en charge : Qu'il s'agisse de dĂ©tection d'objets, de segmentation d'instances, de classification d'images, d'estimation de la pose ou de dĂ©tection d'objets orientĂ©s (OBB), YOLO11 est conçu pour rĂ©pondre Ă  un ensemble variĂ© de dĂ©fis en matière de vision par ordinateur.

Tâches et modes pris en charge

YOLO11 s'appuie sur la gamme de modèles polyvalents présentée sur le site YOLOv8, offrant un soutien accru pour diverses tâches de vision par ordinateur :

Modèle Noms de fichiers Tâche Inférence Validation Formation Exportation
YOLO11 yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt DĂ©tection âś… âś… âś… âś…
YOLO11-seg yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt Segmentation des instances âś… âś… âś… âś…
YOLO11-pose yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt Pose/Points clés ✅ ✅ ✅ ✅
YOLO11-obb yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt Détection orientée ✅ ✅ ✅ ✅
YOLO11-cls yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt Classification âś… âś… âś… âś…

Ce tableau fournit une vue d'ensemble des variantes du modèle YOLO11 , montrant leur applicabilité dans des tâches spécifiques et leur compatibilité avec des modes opérationnels tels que l'inférence, la validation, l'entraînement et l'exportation. Grâce à cette flexibilité, YOLO11 convient à un large éventail d'applications dans le domaine de la vision par ordinateur, de la détection en temps réel aux tâches de segmentation complexes.

Mesures de performance

Performance

Voir Detection Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.

Modèle taille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9

Voir Segmentation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui comprennent 80 classes pré-entraînées.

Modèle taille
(pixels)
mAPbox
50-95
mAPmask
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0

Voir les documents sur la classification pour des exemples d'utilisation de ces modèles formés sur ImageNet, qui comprennent 1000 classes préformées.

Modèle taille
(pixels)
acc
top1
acc
top5
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B) Ă  640
YOLO11n-cls 224 70.0 89.4 5.0 ± 0.3 1.1 ± 0.0 1.6 3.3
YOLO11s-cls 224 75.4 92.7 7.9 ± 0.2 1.3 ± 0.0 5.5 12.1
YOLO11m-cls 224 77.3 93.9 17.2 ± 0.4 2.0 ± 0.0 10.4 39.3
YOLO11l-cls 224 78.3 94.3 23.2 ± 0.3 2.8 ± 0.0 12.9 49.4
YOLO11x-cls 224 79.5 94.9 41.4 ± 0.9 3.8 ± 0.0 28.4 110.4

Voir Pose Estimation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui incluent une classe pré-entraînée, "personne".

Modèle taille
(pixels)
mAPpose
50-95
mAPpose
50
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3

Voir Oriented Detection Docs pour des exemples d'utilisation de ces modèles entraînés sur DOTAv1, qui comprend 15 classes pré-entraînées.

Modèle taille
(pixels)
mAPtest
50
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-obb 1024 78.4 117.6 ± 0.8 4.4 ± 0.0 2.7 17.2
YOLO11s-obb 1024 79.5 219.4 ± 4.0 5.1 ± 0.0 9.7 57.5
YOLO11m-obb 1024 80.9 562.8 ± 2.9 10.1 ± 0.4 20.9 183.5
YOLO11l-obb 1024 81.0 712.5 ± 5.0 13.5 ± 0.6 26.2 232.0
YOLO11x-obb 1024 81.3 1408.6 ± 7.7 28.6 ± 1.0 58.8 520.2

Exemples d'utilisation

Cette section fournit des exemples simples de formation et d'inférence à l'adresse YOLO11 . Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.

Notez que l'exemple ci-dessous concerne les modèles YOLO11 Detect pour la détection d'objets. Pour d'autres tâches prises en charge, voir les documents Segmenter, Classifier, OBB et Poser.

Exemple

PyTorch préformé *.pt ainsi que la configuration *.yaml peuvent être transmis à la fonction YOLO() pour créer une instance de modèle dans Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citations et remerciements

Ultralytics YOLO11 Publication

Ultralytics n'a pas publié de document de recherche officiel pour YOLO11 en raison de la nature rapidement évolutive des modèles. Nous nous attachons à faire progresser la technologie et à faciliter son utilisation, plutôt qu'à produire une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , veuillez consulter notre dépôt GitHub et notre documentation.

Si vous utilisez YOLO11 ou tout autre logiciel de ce dépôt dans votre travail, veuillez le citer en utilisant le format suivant :

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Veuillez noter que le DOI est en attente et qu'il sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLO11 sont fournis sous les licences AGPL-3.0 et Enterprise.

FAQ

Quelles sont les principales améliorations apportées à Ultralytics YOLO11 par rapport aux versions précédentes ?

Ultralytics YOLO11 présente plusieurs avancées significatives par rapport à ses prédécesseurs. Les principales améliorations sont les suivantes

  • Extraction amĂ©liorĂ©e des caractĂ©ristiques : YOLO11 utilise une architecture amĂ©liorĂ©e de la colonne vertĂ©brale et du cou, amĂ©liorant les capacitĂ©s d'extraction des caractĂ©ristiques pour une dĂ©tection plus prĂ©cise des objets.
  • EfficacitĂ© et rapiditĂ© optimisĂ©es : Des conceptions architecturales affinĂ©es et des pipelines de formation optimisĂ©s permettent d'accĂ©lĂ©rer les vitesses de traitement tout en maintenant un Ă©quilibre entre la prĂ©cision et les performances.
  • Une plus grande prĂ©cision avec moins de paramètres : YOLO11m atteint une prĂ©cision moyenne plus Ă©levĂ©e (mAP) sur l'ensemble de donnĂ©es COCO avec 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace en termes de calcul sans compromettre la prĂ©cision.
  • AdaptabilitĂ© Ă  tous les environnements : YOLO11 peut ĂŞtre dĂ©ployĂ© dans diffĂ©rents environnements, y compris les appareils pĂ©riphĂ©riques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA .
  • Large Ă©ventail de tâches prises en charge : YOLO11 prend en charge diverses tâches de vision artificielle telles que la dĂ©tection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et la dĂ©tection d'objets orientĂ©s (OBB).

Comment entraîner un modèle YOLO11 pour la détection d'objets ?

L'entraînement d'un modèle YOLO11 pour la détection d'objets peut être effectué à l'aide des commandes Python ou CLI . Vous trouverez ci-dessous des exemples pour les deux méthodes :

Exemple

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Pour des instructions plus détaillées, reportez-vous à la documentation du train.

Quelles tâches les modèles YOLO11 peuvent-ils accomplir ?

YOLO11 sont polyvalents et prennent en charge un large éventail de tâches de vision par ordinateur, notamment :

  • DĂ©tection d'objets : Identification et localisation d'objets dans une image.
  • Segmentation des instances : DĂ©tection des objets et dĂ©limitation de leurs frontières.
  • Classification des images: Classer les images dans des catĂ©gories prĂ©dĂ©finies.
  • Estimation de la pose : DĂ©tection et suivi de points clĂ©s sur des corps humains.
  • DĂ©tection d'objets orientĂ©s (OBB) : DĂ©tection d'objets avec rotation pour une plus grande prĂ©cision.

Pour plus d'informations sur chaque tâche, voir la documentation sur la détection, la segmentation des instances, la classification, l'estimation de la pose et la détection orientée.

Comment YOLO11 parvient-il à une plus grande précision avec moins de paramètres ?

YOLO11 permet d'obtenir une plus grande précision avec moins de paramètres grâce à des avancées dans la conception du modèle et les techniques d'optimisation. L'architecture améliorée permet une extraction et un traitement efficaces des caractéristiques, ce qui se traduit par une précision moyenne plus élevée (mAP) sur des ensembles de données tels que COCO, tout en utilisant 22 % de paramètres en moins que YOLOv8m. YOLO11 est donc efficace sur le plan des calculs sans compromettre la précision, ce qui permet de le déployer sur des appareils aux ressources limitées.

Le site YOLO11 peut-il être déployé sur des appareils périphériques ?

Oui, YOLO11 est conçu pour s'adapter à divers environnements, y compris les appareils périphériques. Son architecture optimisée et ses capacités de traitement efficaces lui permettent d'être déployé sur des appareils périphériques, des plates-formes en nuage et des systèmes prenant en charge les GPU NVIDIA . Cette flexibilité garantit que YOLO11 peut être utilisé dans diverses applications, de la détection en temps réel sur les appareils mobiles aux tâches de segmentation complexes dans les environnements en nuage. Pour plus de détails sur les options de déploiement, consultez la documentation Export.

📅 Created 2 months ago ✏️ Updated 0 days ago

Commentaires