Ultralytics YOLO11
Überblick
YOLO11 ist die neueste Iteration in der Ultralytics YOLO-Serie von Echtzeit-Objektdetektoren, die mit modernster Genauigkeit, Geschwindigkeit und Effizienz neue Maßstäbe setzt. Aufbauend auf den beeindruckenden Fortschritten früherer YOLO-Versionen führt YOLO11 bedeutende Verbesserungen in der Architektur und den Trainingsmethoden ein, was es zu einer vielseitigen Wahl für eine breite Palette von Computer-Vision-Aufgaben macht.
Ultralytics YOLO11 🚀 Podcast generiert von NotebookLM
Ansehen: So verwenden Sie Ultralytics YOLO11 für Objekterkennung und -verfolgung | So führen Sie Benchmarks durch | YOLO11 VERÖFFENTLICHT🚀
Hauptmerkmale
- Verbesserte Merkmalsextraktion: YOLO11 verwendet eine verbesserte Backbone- und Neck-Architektur, die die Merkmalsextraktions-Fähigkeiten für eine präzisere Objekterkennung und komplexe Aufgabenleistung verbessert.
- Optimiert für Effizienz und Geschwindigkeit: YOLO11 führt verfeinerte Architekturentwürfe und optimierte Trainingspipelines ein, die schnellere Verarbeitungsgeschwindigkeiten liefern und ein optimales Gleichgewicht zwischen Genauigkeit und Leistung aufrechterhalten.
- Höhere Genauigkeit mit weniger Parametern: Mit Fortschritten im Modelldesign erzielt YOLO11m eine höhere mittlere Average Precision (mAP) auf dem COCO-Datensatz, während es 22 % weniger Parameter als YOLOv8m verwendet, was es recheneffizient macht, ohne die Genauigkeit zu beeinträchtigen.
- Anpassungsfähigkeit in verschiedenen Umgebungen: YOLO11 kann nahtlos in verschiedenen Umgebungen eingesetzt werden, einschließlich Edge-Geräten, Cloud-Plattformen und Systemen, die NVIDIA-GPUs unterstützen, wodurch maximale Flexibilität gewährleistet wird.
- Breites Spektrum an unterstützten Aufgaben: Ob Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Pose-Schätzung oder ausgerichtete Objekterkennung (OBB), YOLO11 wurde entwickelt, um eine Vielzahl von Computer-Vision-Herausforderungen zu bewältigen.
Unterstützte Aufgaben und Modi
YOLO11 baut auf der vielseitigen Modellpalette von YOLOv8 auf und bietet erweiterte Unterstützung für verschiedene Computer-Vision-Aufgaben:
Modell | Dateinamen | Aufgabe | Inferenz | Validierung | Training | Export |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
Erkennung | ✅ | ✅ | ✅ | ✅ |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
Instanzsegmentierung | ✅ | ✅ | ✅ | ✅ |
YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
Orientierte Erkennung | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
Klassifizierung | ✅ | ✅ | ✅ | ✅ |
Diese Tabelle bietet einen Überblick über die YOLO11-Modellvarianten und zeigt deren Anwendbarkeit in spezifischen Aufgaben sowie die Kompatibilität mit Betriebsmodi wie Inferenz, Validierung, Training und Export. Diese Flexibilität macht YOLO11 für eine Vielzahl von Anwendungen in der Computer Vision geeignet, von Echtzeit-Erkennung bis hin zu komplexen Segmentierungsaufgaben.
Leistungsmetriken
Performance
Siehe Detection Docs für Anwendungsbeispiele mit diesen auf COCO trainierten Modellen, die 80 vortrainierte Klassen enthalten.
Modell | Größe (Pixel) |
mAPval 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Siehe Segmentation Docs für Anwendungsbeispiele mit diesen auf COCO trainierten Modellen, die 80 vortrainierte Klassen enthalten.
Modell | Größe (Pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Siehe Classification Docs für Anwendungsbeispiele mit diesen auf ImageNet trainierten Modellen, die 1000 vortrainierte Klassen enthalten.
Modell | Größe (Pixel) |
acc top1 |
acc top5 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) bei 224 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 0.5 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 1.6 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17,2 ± 0,4 | 2,0 ± 0,0 | 10.4 | 5.0 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23,2 ± 0,3 | 2,8 ± 0,0 | 12.9 | 6.2 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41,4 ± 0,9 | 3,8 ± 0,0 | 28.4 | 13.7 |
Siehe Pose Estimation Docs für Anwendungsbeispiele mit diesen auf COCO trainierten Modellen, die 1 vortrainierte Klasse, 'Person', enthalten.
Modell | Größe (Pixel) |
mAPPose 50-95 |
mAPPose 50 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-Pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-Pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-Pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-Pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-Pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Siehe Oriented Detection Docs für Anwendungsbeispiele mit diesen auf DOTAv1 trainierten Modellen, die 15 vortrainierte Klassen enthalten.
Modell | Größe (Pixel) |
mAPtest 50 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Anwendungsbeispiele
Dieser Abschnitt enthält einfache YOLO11-Trainings- und Inferenzbeispiele. Eine vollständige Dokumentation zu diesen und anderen Modi finden Sie auf den Dokumentationsseiten Predict, Train, Val und Export.
Beachten Sie, dass das folgende Beispiel für YOLO11 Detect-Modelle zur Objekterkennung gilt. Weitere unterstützte Aufgaben finden Sie in den Dokumentationen zu Segment, Classify, OBB und Pose.
Beispiel
PyTorch vorab trainierte *.pt
Modelle sowie Konfigurations- *.yaml
Dateien können an die YOLO()
Klasse, um eine Modellinstanz in Python zu erstellen:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
Es stehen CLI-Befehle zur Verfügung, um die Modelle direkt auszuführen:
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg
Zitate und Danksagungen
Ultralytics YOLO11-Veröffentlichung
Ultralytics hat aufgrund der schnelllebigen Natur der Modelle kein formelles Forschungspapier für YOLO11 veröffentlicht. Wir konzentrieren uns darauf, die Technologie voranzutreiben und ihre Nutzung zu vereinfachen, anstatt statische Dokumentationen zu erstellen. Die aktuellsten Informationen zu YOLO-Architektur, -Funktionen und -Anwendung finden Sie in unserem GitHub-Repository und unserer Dokumentation.
Wenn Sie YOLO11 oder eine andere Software aus diesem Repository in Ihrer Arbeit verwenden, zitieren Sie diese bitte in folgendem Format:
@software{yolo11_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO11},
version = {11.0.0},
year = {2024},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
Bitte beachten Sie, dass der DOI noch aussteht und der Zitierung hinzugefügt wird, sobald er verfügbar ist. YOLO11-Modelle werden unter AGPL-3.0- und Enterprise-Lizenzen bereitgestellt.
FAQ
Was sind die wichtigsten Verbesserungen in Ultralytics YOLO11 im Vergleich zu früheren Versionen?
Ultralytics YOLO11 führt mehrere bedeutende Verbesserungen gegenüber seinen Vorgängern ein. Zu den wichtigsten Verbesserungen gehören:
- Verbesserte Merkmalsextraktion: YOLO11 verwendet eine verbesserte Backbone- und Neck-Architektur, wodurch die Merkmalsextraktion für eine präzisere Objekterkennung verbessert wird.
- Optimierte Effizienz und Geschwindigkeit: Verfeinerte architektonische Designs und optimierte Trainingspipelines sorgen für schnellere Verarbeitungsgeschwindigkeiten und wahren gleichzeitig ein Gleichgewicht zwischen Genauigkeit und Leistung.
- Höhere Genauigkeit mit weniger Parametern: YOLO11m erzielt eine höhere mittlere durchschnittliche Präzision (mAP) auf dem COCO-Datensatz mit 22 % weniger Parametern als YOLOv8m, wodurch es rechentechnisch effizient ist, ohne die Genauigkeit zu beeinträchtigen.
- Anpassungsfähigkeit in verschiedenen Umgebungen: YOLO11 kann in verschiedenen Umgebungen eingesetzt werden, darunter Edge-Geräte, Cloud-Plattformen und Systeme, die NVIDIA-GPUs unterstützen.
- Breites Spektrum an unterstützten Aufgaben: YOLO11 unterstützt verschiedene Computer-Vision-Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Pose-Schätzung und orientierte Objekterkennung (OBB).
Wie trainiere ich ein YOLO11-Modell für die Objekterkennung?
Das Training eines YOLO11-Modells zur Objekterkennung kann mit Python- oder CLI-Befehlen erfolgen. Nachfolgend finden Sie Beispiele für beide Methoden:
Beispiel
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
Weitere detaillierte Anweisungen finden Sie in der Train-Dokumentation.
Welche Aufgaben können YOLO11-Modelle ausführen?
YOLO11-Modelle sind vielseitig und unterstützen eine breite Palette von Computer-Vision-Aufgaben, darunter:
- Objekterkennung: Identifizierung und Lokalisierung von Objekten innerhalb eines Bildes.
- Instanzsegmentierung: Erkennung von Objekten und Abgrenzung ihrer Grenzen.
- Bildklassifizierung: Kategorisierung von Bildern in vordefinierte Klassen.
- Pose-Schätzung: Erkennung und Verfolgung von Schlüsselpunkten auf menschlichen Körpern.
- Orientierte Objekterkennung (OBB): Erkennung von Objekten mit Rotation für höhere Präzision.
Weitere Informationen zu den einzelnen Aufgaben finden Sie in der Dokumentation zu Erkennung, Instanzsegmentierung, Klassifizierung, Pose-Schätzung und Orientierter Erkennung.
Wie erzielt YOLO11 eine höhere Genauigkeit mit weniger Parametern?
YOLO11 erzielt eine höhere Genauigkeit mit weniger Parametern durch Fortschritte im Modelldesign und in den Optimierungstechniken. Die verbesserte Architektur ermöglicht eine effiziente Feature-Extraktion und -Verarbeitung, was zu einer höheren mittleren Average Precision (mAP) auf Datensätzen wie COCO führt, während gleichzeitig 22 % weniger Parameter als bei YOLOv8m verwendet werden. Dies macht YOLO11 recheneffizient, ohne die Genauigkeit zu beeinträchtigen, wodurch es für den Einsatz auf ressourcenbeschränkten Geräten geeignet ist.
Kann YOLO11 auf Edge-Geräten eingesetzt werden?
Ja, YOLO11 ist für die Anpassung an verschiedene Umgebungen ausgelegt, einschließlich Edge-Geräte. Seine optimierte Architektur und effiziente Verarbeitung machen es für den Einsatz auf Edge-Geräten, Cloud-Plattformen und Systemen mit NVIDIA GPUs geeignet. Diese Flexibilität stellt sicher, dass YOLO11 in verschiedenen Anwendungen eingesetzt werden kann, von der Echtzeit-Erkennung auf mobilen Geräten bis hin zu komplexen Segmentierungsaufgaben in Cloud-Umgebungen. Weitere Informationen zu den Einsatzmöglichkeiten finden Sie in der Export-Dokumentation.