Skip to content

Ultralytics YOLO11

Vue d'ensemble

YOLO11 est la dernière itération de la série des détecteurs d'objets en temps réel. Ultralytics YOLO de détecteurs d'objets en temps réel, redéfinissant ce qui est possible avec une précision, une vitesse et une efficacité de pointe. S'appuyant sur les avancées impressionnantes des versions précédentes de YOLO , YOLO11 apporte des améliorations significatives à l'architecture et aux méthodes d'apprentissage, ce qui en fait un choix polyvalent pour un large éventail de tâches de vision par ordinateur.

Ultralytics YOLO11 Graphiques de comparaison

Ultralytics YOLO11 🚀 Podcast généré par NotebookLM



Regarder : How to Use Ultralytics YOLO11 for Object Detection and Tracking | How to Benchmark | YOLO11 RELEASED🚀

Caractéristiques principales

  • Extraction améliorée des caractéristiques : YOLO11 utilise une architecture améliorée de l 'épine dorsale et du cou, qui renforce les capacités d'extraction des caractéristiques pour une détection plus précise des objets et l'exécution de tâches complexes.
  • Optimisé pour l'efficacité et la rapidité : YOLO11 présente des conceptions architecturales raffinées et des pipelines de formation optimisés, offrant des vitesses de traitement plus rapides et maintenant un équilibre optimal entre la précision et la performance.
  • Une plus grande précision avec moins de paramètres : Grâce aux progrès réalisés dans la conception du modèle, YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO tout en utilisant 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace sur le plan des calculs sans compromettre la précision.
  • Adaptabilité à tous les environnements : YOLO11 peut être déployé de manière transparente dans différents environnements, y compris les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA , ce qui garantit une flexibilité maximale.
  • Large éventail de tâches prises en charge : Qu'il s'agisse de détection d'objets, de segmentation d'instances, de classification d'images, d'estimation de la pose ou de détection d'objets orientés (OBB), YOLO11 est conçu pour répondre à un ensemble varié de défis en matière de vision par ordinateur.

Tâches et modes pris en charge

YOLO11 s'appuie sur la gamme de modèles polyvalents présentée sur le site YOLOv8, offrant un soutien accru pour diverses tâches de vision par ordinateur :

Modèle Noms de fichiers Tâche Inférence Validation Formation Exportation
YOLO11 yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt Détection
YOLO11-seg yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt Segmentation des instances
YOLO11-pose yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt Pose/Points clés
YOLO11-obb yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt Détection orientée
YOLO11-cls yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt Classification

Ce tableau fournit une vue d'ensemble des variantes du modèle YOLO11 , montrant leur applicabilité dans des tâches spécifiques et leur compatibilité avec des modes opérationnels tels que l'inférence, la validation, l'entraînement et l'exportation. Grâce à cette flexibilité, YOLO11 convient à un large éventail d'applications dans le domaine de la vision par ordinateur, de la détection en temps réel aux tâches de segmentation complexes.

Mesures de performance

Performance

Voir Detection Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.

Modèle taille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9

Voir Segmentation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui comprennent 80 classes pré-entraînées.

Modèle taille
(pixels)
mAPbox
50-95
mAPmask
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0

Voir les documents sur la classification pour des exemples d'utilisation de ces modèles formés sur ImageNet, qui comprennent 1000 classes préformées.

Modèle taille
(pixels)
acc
top1
acc
top5
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B) à 224
YOLO11n-cls 224 70.0 89.4 5.0 ± 0.3 1.1 ± 0.0 1.6 0.5
YOLO11s-cls 224 75.4 92.7 7.9 ± 0.2 1.3 ± 0.0 5.5 1.6
YOLO11m-cls 224 77.3 93.9 17.2 ± 0.4 2.0 ± 0.0 10.4 5.0
YOLO11l-cls 224 78.3 94.3 23.2 ± 0.3 2.8 ± 0.0 12.9 6.2
YOLO11x-cls 224 79.5 94.9 41.4 ± 0.9 3.8 ± 0.0 28.4 13.7

Voir Pose Estimation Docs pour des exemples d'utilisation de ces modèles entraînés sur COCO, qui incluent une classe pré-entraînée, "personne".

Modèle taille
(pixels)
mAPpose
50-95
mAPpose
50
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3

Voir Oriented Detection Docs pour des exemples d'utilisation de ces modèles entraînés sur DOTAv1, qui comprend 15 classes pré-entraînées.

Modèle taille
(pixels)
mAPtest
50
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-obb 1024 78.4 117.6 ± 0.8 4.4 ± 0.0 2.7 17.2
YOLO11s-obb 1024 79.5 219.4 ± 4.0 5.1 ± 0.0 9.7 57.5
YOLO11m-obb 1024 80.9 562.8 ± 2.9 10.1 ± 0.4 20.9 183.5
YOLO11l-obb 1024 81.0 712.5 ± 5.0 13.5 ± 0.6 26.2 232.0
YOLO11x-obb 1024 81.3 1408.6 ± 7.7 28.6 ± 1.0 58.8 520.2

Exemples d'utilisation

Cette section fournit des exemples simples de formation et d'inférence à l'adresse YOLO11 . Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.

Notez que l'exemple ci-dessous concerne les modèles YOLO11 Detect pour la détection d'objets. Pour d'autres tâches prises en charge, voir les documents Segmenter, Classifier, OBB et Poser.

Exemple

PyTorch préformé *.pt ainsi que la configuration *.yaml peuvent être transmis à la fonction YOLO() pour créer une instance de modèle dans Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citations et remerciements

Ultralytics YOLO11 Publication

Ultralytics n'a pas publié de document de recherche officiel pour YOLO11 en raison de la nature rapidement évolutive des modèles. Nous nous attachons à faire progresser la technologie et à faciliter son utilisation, plutôt qu'à produire une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , veuillez consulter notre dépôt GitHub et notre documentation.

Si vous utilisez YOLO11 ou tout autre logiciel de ce dépôt dans votre travail, veuillez le citer en utilisant le format suivant :

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Veuillez noter que le DOI est en attente et qu'il sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLO11 sont fournis sous les licences AGPL-3.0 et Enterprise.

FAQ

Quelles sont les principales améliorations apportées à Ultralytics YOLO11 par rapport aux versions précédentes ?

Ultralytics YOLO11 présente plusieurs avancées significatives par rapport à ses prédécesseurs. Les principales améliorations sont les suivantes

  • Extraction améliorée des caractéristiques : YOLO11 utilise une architecture améliorée de la colonne vertébrale et du cou, améliorant les capacités d'extraction des caractéristiques pour une détection plus précise des objets.
  • Efficacité et rapidité optimisées : Des conceptions architecturales affinées et des pipelines de formation optimisés permettent d'accélérer les vitesses de traitement tout en maintenant un équilibre entre la précision et les performances.
  • Une plus grande précision avec moins de paramètres : YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO avec 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace en termes de calcul sans compromettre la précision.
  • Adaptabilité à tous les environnements : YOLO11 peut être déployé dans différents environnements, y compris les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA .
  • Large éventail de tâches prises en charge : YOLO11 prend en charge diverses tâches de vision artificielle telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et la détection d'objets orientés (OBB).

Comment entraîner un modèle YOLO11 pour la détection d'objets ?

L'entraînement d'un modèle YOLO11 pour la détection d'objets peut être effectué à l'aide des commandes Python ou CLI . Vous trouverez ci-dessous des exemples pour les deux méthodes :

Exemple

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Pour des instructions plus détaillées, reportez-vous à la documentation du train.

Quelles tâches les modèles YOLO11 peuvent-ils accomplir ?

YOLO11 sont polyvalents et prennent en charge un large éventail de tâches de vision par ordinateur, notamment :

  • Détection d'objets : Identification et localisation d'objets dans une image.
  • Segmentation des instances : Détection des objets et délimitation de leurs frontières.
  • Classification des images: Classer les images dans des catégories prédéfinies.
  • Estimation de la pose : Détection et suivi de points clés sur des corps humains.
  • Détection d'objets orientés (OBB) : Détection d'objets avec rotation pour une plus grande précision.

Pour plus d'informations sur chaque tâche, voir la documentation sur la détection, la segmentation des instances, la classification, l'estimation de la pose et la détection orientée.

Comment YOLO11 parvient-il à une plus grande précision avec moins de paramètres ?

YOLO11 permet d'obtenir une plus grande précision avec moins de paramètres grâce à des avancées dans la conception du modèle et les techniques d'optimisation. L'architecture améliorée permet une extraction et un traitement efficaces des caractéristiques, ce qui se traduit par une précision moyenne plus élevée (mAP) sur des ensembles de données tels que COCO, tout en utilisant 22 % de paramètres en moins que YOLOv8m. YOLO11 est donc efficace sur le plan des calculs sans compromettre la précision, ce qui permet de le déployer sur des appareils aux ressources limitées.

Le site YOLO11 peut-il être déployé sur des appareils périphériques ?

Oui, YOLO11 est conçu pour s'adapter à divers environnements, y compris les appareils périphériques. Son architecture optimisée et ses capacités de traitement efficaces lui permettent d'être déployé sur des appareils périphériques, des plates-formes en nuage et des systèmes prenant en charge les GPU NVIDIA . Cette flexibilité garantit que YOLO11 peut être utilisé dans diverses applications, de la détection en temps réel sur les appareils mobiles aux tâches de segmentation complexes dans les environnements en nuage. Pour plus de détails sur les options de déploiement, consultez la documentation Export.

📅C réé il y a 5 mois ✏️ Mis à jour il y a 26 jours

Commentaires