Skip to content

Ultralytics YOLO11

Vue d'ensemble

YOLO11 est la dernière itération de la série de détecteurs d'objets en temps réel. Ultralytics YOLO de détecteurs d'objets en temps réel, redéfinissant ce qui est possible avec une précision, une vitesse et une efficacité de pointe. S'appuyant sur les avancées impressionnantes des versions précédentes de YOLO , YOLO11 introduit des améliorations significatives dans l'architecture et les méthodes d'entraînement, ce qui en fait un choix polyvalent pour un large éventail de tâches de vision par ordinateur.

Ultralytics YOLO11 Plots de comparaison



Regarde : Comment utiliser Ultralytics YOLO11 pour la détection et le suivi d'objets | Comment faire une analyse comparative | YOLO11 RELEASED🚀

Caractéristiques principales

  • Extraction améliorée des caractéristiques : YOLO11 utilise une architecture dorsale et cervicale améliorée, qui renforce les capacités d'extraction des caractéristiques pour une détection plus précise des objets et l'exécution de tâches complexes.
  • Optimisé pour l'efficacité et la vitesse : YOLO11 introduit des conceptions architecturales raffinées et des pipelines d'entraînement optimisés, offrant des vitesses de traitement plus rapides et maintenant un équilibre optimal entre précision et performance.
  • Une plus grande précision avec moins de paramètres : Grâce aux progrès réalisés dans la conception du modèle, YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO tout en utilisant 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace sur le plan des calculs sans compromettre la précision.
  • Adaptabilité à travers les environnements : YOLO11 peut être déployé de façon transparente dans divers environnements, y compris les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA , ce qui garantit une flexibilité maximale.
  • Large gamme de tâches prises en charge : Qu'il s'agisse de détection d'objets, de segmentation d'instances, de classification d'images, d'estimation de la pose ou de détection d'objets orientés (OBB), YOLO11 est conçu pour répondre à un ensemble varié de défis en matière de vision par ordinateur.

Tâches et modes pris en charge

YOLO11 s'appuie sur la gamme de modèles polyvalents introduits sur YOLOv8, offrant une meilleure prise en charge de diverses tâches de vision par ordinateur :

ModèleNoms de fichiersTâcheInférenceValidationFormationExporter
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptDétection
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptSegmentation des instances
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptPose / Points clés
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptDétection orientée
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptClassification

Ce tableau donne un aperçu des variantes du modèle YOLO11, en présentant leur applicabilité dans des tâches spécifiques et leur compatibilité avec des modes opérationnels tels que l'inférence, la validation, l'entraînement et l'exportation. Grâce à cette flexibilité, YOLO11 convient à un large éventail d'applications dans le domaine de la vision par ordinateur, de la détection en temps réel aux tâches de segmentation complexes.

Mesures de performance

Performance

Voir Detection Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.

Modèletaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Voir Segmentation Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.

Modèletaille
(pixels)
mAPbox
50-95
mAPmask
50-95
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.910.4
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.135.5
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4123.3
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6142.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1319.0

Voir les documents sur la classification pour des exemples d'utilisation de ces modèles formés sur ImageNet, qui comprennent 1000 classes préformées.

Modèletaille
(pixels)
acc
top1
acc
top5
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B) à 640
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.01.63.3
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.05.512.1
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.010.439.3
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.012.949.4
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.028.4110.4

Voir Pose Estimation Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui incluent une classe préformée, "personne".

Modèletaille
(pixels)
mAPpose
50-95
mAPpose
50
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.6
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.2
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.7
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.290.7
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8203.3

Voir Oriented Detection Docs pour des exemples d'utilisation de ces modèles formés sur DOTAv1, qui comprennent 15 classes préformées.

Modèletaille
(pixels)
mAPtest
50
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.717.2
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.5
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9183.5
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.2232.0
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8520.2

Exemples d'utilisation

Cette section fournit des exemples simples de formation et d'inférence de YOLO11. Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.

Note que l'exemple ci-dessous concerne les modèles YOLO11 Detect pour la détection d'objets. Pour connaître les autres tâches prises en charge, consulte les documents Segmenter, Classifier, OBB et Poser.

Exemple

PyTorch préformé *.pt ainsi que la configuration *.yaml peuvent être transmis à l'outil YOLO() pour créer une instance de modèle dans Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Des commandes sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citations et remerciements

Ultralytics YOLO11 Publication

Ultralytics n'a pas publié de document de recherche officiel pour YOLO11 en raison de la nature rapidement évolutive des modèles. Nous nous concentrons sur l'avancement de la technologie et la facilitation de son utilisation, plutôt que sur la production d'une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , tu peux te référer à notre dépôt GitHub et à notre documentation.

Si tu utilises YOLO11 ou tout autre logiciel de ce dépôt dans ton travail, merci de le citer en utilisant le format suivant :

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Note que le DOI est en attente et qu'il sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLO11 sont fournis sous les licences AGPL-3.0 et Enterprise.

FAQ

Quelles sont les principales améliorations apportées par Ultralytics YOLO11 par rapport aux versions précédentes ?

Ultralytics YOLO11 présente plusieurs avancées significatives par rapport à ses prédécesseurs. Les principales améliorations sont les suivantes :

  • Extraction améliorée des caractéristiques : YOLO11 utilise une architecture de colonne vertébrale et de cou améliorée, renforçant les capacités d'extraction des caractéristiques pour une détection plus précise des objets.
  • Efficacité et rapidité optimisées : Les conceptions architecturales raffinées et les pipelines de formation optimisés offrent des vitesses de traitement plus rapides tout en maintenant un équilibre entre précision et performance.
  • Une plus grande précision avec moins de paramètres : YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO avec 22 % de paramètres en moins que YOLOv8m, ce qui le rend efficace sur le plan des calculs sans compromettre la précision.
  • Adaptabilité à travers les environnements : YOLO11 peut être déployé dans divers environnements, notamment les appareils périphériques, les plateformes cloud et les systèmes prenant en charge les GPU NVIDIA .
  • Large gamme de tâches prises en charge : YOLO11 prend en charge diverses tâches de vision par ordinateur telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et la détection d'objets orientés (OBB).

Comment entraîner un modèle YOLO11 pour la détection d'objets ?

L'entraînement d'un modèle YOLO11 pour la détection d'objets peut se faire à l'aide des commandes Python ou CLI . Tu trouveras ci-dessous des exemples pour les deux méthodes :

Exemple

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Pour des instructions plus détaillées, reporte-toi à la documentation du train.

Quelles tâches les modèles YOLO11 peuvent-ils accomplir ?

Les modèles YOLO11 sont polyvalents et prennent en charge un large éventail de tâches de vision par ordinateur, notamment :

  • Détection d'objets : Identifier et localiser des objets dans une image.
  • Segmentation des instances : Détecter les objets et délimiter leurs frontières.
  • Classification des images: Catégorisation des images en classes prédéfinies.
  • Estimation de la pose : Détection et suivi des points clés sur les corps humains.
  • Détection d'objets orientés (OBB) : Détection d'objets avec rotation pour une plus grande précision.

Pour plus d'informations sur chaque tâche, consulte la documentation sur la détection, la segmentation des instances, la classification, l'estimation de la pose et la détection orientée.

Comment YOLO11 parvient-il à une plus grande précision avec moins de paramètres ?

YOLO11 atteint une plus grande précision avec moins de paramètres grâce à des avancées dans la conception du modèle et les techniques d'optimisation. L'architecture améliorée permet une extraction et un traitement efficaces des caractéristiques, ce qui se traduit par une précision moyenne plus élevée (mAP) sur des ensembles de données tels que COCO, tout en utilisant 22 % de paramètres en moins que YOLOv8m. YOLO11 est donc efficace sur le plan des calculs sans compromettre la précision, ce qui le rend adapté à un déploiement sur des appareils aux ressources limitées.

YOLO11 peut-il être déployé sur des appareils périphériques ?

Oui, YOLO11 est conçu pour s'adapter à divers environnements, y compris les appareils périphériques. Son architecture optimisée et ses capacités de traitement efficaces lui permettent d'être déployé sur des appareils périphériques, des plateformes cloud et des systèmes prenant en charge les GPU NVIDIA . Cette flexibilité garantit que YOLO11 peut être utilisé dans diverses applications, de la détection en temps réel sur les appareils mobiles aux tâches de segmentation complexes dans les environnements cloud. Pour plus de détails sur les options de déploiement, reporte-toi à la documentation d'exportation.

📅 C réé il y a 1 mois ✏️ Mis à jour il y a 13 jours

Commentaires