Voir Segmentation Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui comprennent 80 classes préformées.
Modèle | taille (pixels) | mAPbox 50-95 | mAPmask 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Voir les documents sur la classification pour des exemples d'utilisation de ces modèles formés sur ImageNet, qui comprennent 1000 classes préformées.
Modèle | taille (pixels) | acc top1 | acc top5 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | params (M) | FLOPs (B) à 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Voir Pose Estimation Docs pour des exemples d'utilisation de ces modèles formés sur COCO, qui incluent une classe préformée, "personne".
Modèle | taille (pixels) | mAPpose 50-95 | mAPpose 50 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Voir Oriented Detection Docs pour des exemples d'utilisation de ces modèles formés sur DOTAv1, qui comprennent 15 classes préformées.
Modèle | taille (pixels) | mAPtest 50 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Cette section fournit des exemples simples de formation et d'inférence de YOLO11. Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.
Note que l'exemple ci-dessous concerne les modèles YOLO11 Detect pour la détection d'objets. Pour connaître les autres tâches prises en charge, consulte les documents Segmenter, Classifier, OBB et Poser.
Exemple
PyTorch préformé *.pt
ainsi que la configuration *.yaml
peuvent être transmis à l'outil YOLO()
pour créer une instance de modèle dans Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Des commandes sont disponibles pour exécuter directement les modèles :
Ultralytics YOLO11 Publication
Ultralytics n'a pas publié de document de recherche officiel pour YOLO11 en raison de la nature rapidement évolutive des modèles. Nous nous concentrons sur l'avancement de la technologie et la facilitation de son utilisation, plutôt que sur la production d'une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , tu peux te référer à notre dépôt GitHub et à notre documentation.
Si tu utilises YOLO11 ou tout autre logiciel de ce dépôt dans ton travail, merci de le citer en utilisant le format suivant :
Note que le DOI est en attente et qu'il sera ajouté à la citation dès qu'il sera disponible. Les modèles YOLO11 sont fournis sous les licences AGPL-3.0 et Enterprise.
Ultralytics YOLO11 présente plusieurs avancées significatives par rapport à ses prédécesseurs. Les principales améliorations sont les suivantes :
L'entraînement d'un modèle YOLO11 pour la détection d'objets peut se faire à l'aide des commandes Python ou CLI . Tu trouveras ci-dessous des exemples pour les deux méthodes :
Exemple
Pour des instructions plus détaillées, reporte-toi à la documentation du train.
Les modèles YOLO11 sont polyvalents et prennent en charge un large éventail de tâches de vision par ordinateur, notamment :
Pour plus d'informations sur chaque tâche, consulte la documentation sur la détection, la segmentation des instances, la classification, l'estimation de la pose et la détection orientée.
YOLO11 atteint une plus grande précision avec moins de paramètres grâce à des avancées dans la conception du modèle et les techniques d'optimisation. L'architecture améliorée permet une extraction et un traitement efficaces des caractéristiques, ce qui se traduit par une précision moyenne plus élevée (mAP) sur des ensembles de données tels que COCO, tout en utilisant 22 % de paramètres en moins que YOLOv8m. YOLO11 est donc efficace sur le plan des calculs sans compromettre la précision, ce qui le rend adapté à un déploiement sur des appareils aux ressources limitées.
Oui, YOLO11 est conçu pour s'adapter à divers environnements, y compris les appareils périphériques. Son architecture optimisée et ses capacités de traitement efficaces lui permettent d'être déployé sur des appareils périphériques, des plateformes cloud et des systèmes prenant en charge les GPU NVIDIA . Cette flexibilité garantit que YOLO11 peut être utilisé dans diverses applications, de la détection en temps réel sur les appareils mobiles aux tâches de segmentation complexes dans les environnements cloud. Pour plus de détails sur les options de déploiement, reporte-toi à la documentation d'exportation.