Objekterkennung

Objekterkennung ist eine Aufgabe, bei der die Position und Klasse von Objekten in einem Bild oder Videostream identifiziert werden.
Die Ausgabe eines Objektdetektors ist ein Satz von Begrenzungsrahmen, die die Objekte im Bild umschließen, zusammen mit Klassenbezeichnungen und Konfidenzwerten für jeden Rahmen. Die Objekterkennung ist eine gute Wahl, wenn Sie Objekte von Interesse in einer Szene identifizieren müssen, aber nicht genau wissen müssen, wo sich das Objekt befindet oder wie seine genaue Form ist.
Ansehen: Objekterkennung mit vortrainiertem Ultralytics YOLO Modell.
Tipp
YOLO11 Detect-Modelle sind die Standard-YOLO11-Modelle, d.h. yolo11n.pt und sind vortrainiert auf COCO.
Modelle
Hier werden die mit YOLO11 trainierten Detect-Modelle gezeigt. Detect-, Segment- und Pose-Modelle werden mit der COCO Datensatz trainiert, während die Classify-Modelle mit dem ImageNet Datensatz trainiert wurden.
Modelle werden beim ersten Gebrauch automatisch von der neuesten Ultralytics Version heruntergeladen.
| Modell | Größe (Pixel) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- mAPval Werte gelten für Single-Model, Single-Scale auf COCO val2017 Datensatz.
Reproduzieren durchyolo val detect data=coco.yaml device=0 - Geschwindigkeit gemittelt über COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val detect data=coco.yaml batch=1 device=0|cpu
Trainieren
Trainieren Sie YOLO11n auf dem COCO8 für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640
Datensatzformat
Das Format der YOLO ist im Dataset Guide ausführlich beschrieben. Um Ihren bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das YOLO zu konvertieren, verwenden Sie bitte das Tool JSON2YOLO von Ultralytics.
Validieren
Validieren des trainierten YOLO11n-Modells Genauigkeit für den COCO8 . Es werden keine Argumente benötigt, da die model behält sein Training data und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list containing mAP50-95 for each category
yolo detect val model=yolo11n.pt # val official model
yolo detect val model=path/to/best.pt # val custom model
Vorhersagen
Verwenden Sie ein trainiertes YOLO11n-Modell, um Vorhersagen auf Bildern auszuführen.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg") # predict on an image
# Access the results
for result in results:
xywh = result.boxes.xywh # center-x, center-y, width, height
xywhn = result.boxes.xywhn # normalized
xyxy = result.boxes.xyxy # top-left-x, top-left-y, bottom-right-x, bottom-right-y
xyxyn = result.boxes.xyxyn # normalized
names = [result.names[cls.item()] for cls in result.boxes.cls.int()] # class name of each box
confs = result.boxes.conf # confidence score of each box
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg' # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model
Vollständige predict Details zum Modus finden Sie auf der Vorhersagen Seite.
Export
Exportieren Sie ein YOLO11n-Modell in ein anderes Format wie ONNX, CoreML usw.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model
Die verfügbaren YOLO11-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können in jedes Format exportieren, indem Sie die format Argument in ein beliebiges Format exportieren, z. B. format='onnx' oder format='engine'. Sie können direkt mit exportierten Modellen Vorhersagen treffen oder diese validieren, z. B. yolo predict model=yolo11n.onnx. Anwendungsbeispiele werden nach Abschluss des Exports für Ihr Modell angezeigt.
| Format | format Argument | Modell | Metadaten | Argumente |
|---|---|---|---|---|
| PyTorch | - | yolo11n.pt | ✅ | - |
| TorchScript | torchscript | yolo11n.torchscript | ✅ | imgsz, half, dynamic, optimize, nms, batch, device |
| ONNX | onnx | yolo11n.onnx | ✅ | imgsz, half, dynamic, simplify, opset, nms, batch, device |
| OpenVINO | openvino | yolo11n_openvino_model/ | ✅ | imgsz, half, dynamic, int8, nms, batch, data, fraction, device |
| TensorRT | engine | yolo11n.engine | ✅ | imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device |
| CoreML | coreml | yolo11n.mlpackage | ✅ | imgsz, dynamic, half, int8, nms, batch, device |
| TF SavedModel | saved_model | yolo11n_saved_model/ | ✅ | imgsz, keras, int8, nms, batch, device |
| TF GraphDef | pb | yolo11n.pb | ❌ | imgsz, batch, device |
| TF Lite | tflite | yolo11n.tflite | ✅ | imgsz, half, int8, nms, batch, data, fraction, device |
| TF Edge TPU | edgetpu | yolo11n_edgetpu.tflite | ✅ | imgsz, device |
| TF.js | tfjs | yolo11n_web_model/ | ✅ | imgsz, half, int8, nms, batch, device |
| PaddlePaddle | paddle | yolo11n_paddle_model/ | ✅ | imgsz, batch, device |
| MNN | mnn | yolo11n.mnn | ✅ | imgsz, batch, int8, half, device |
| NCNN | ncnn | yolo11n_ncnn_model/ | ✅ | imgsz, half, batch, device |
| IMX500 | imx | yolo11n_imx_model/ | ✅ | imgsz, int8, data, fraction, device |
| RKNN | rknn | yolo11n_rknn_model/ | ✅ | imgsz, batch, name, device |
| ExecuTorch | executorch | yolo11n_executorch_model/ | ✅ | imgsz, device |
| Axelera | axelera | yolo11n_axelera_model/ | ✅ | imgsz, int8, data, fraction, device |
Vollständige export Details auf der Export Seite.
FAQ
Wie trainiere ich ein YOLO11-Modell auf meinem benutzerdefinierten Datensatz?
Das Trainieren eines YOLO11-Modells auf einem benutzerdefinierten Datensatz umfasst einige Schritte:
- Datensatz vorbereiten: Stellen Sie sicher, dass sich Ihr Datensatz im YOLO-Format befindet. Anleitungen finden Sie in unserem Datensatz-Leitfaden.
- Modell laden: Verwenden Sie die Ultralytics YOLO-Bibliothek, um ein vortrainiertes Modell zu laden oder ein neues Modell aus einer YAML-Datei zu erstellen.
- Modell trainieren: Führen Sie die
trainMethode in python oder denyolo detect trainBefehl in der CLI aus.
Beispiel
from ultralytics import YOLO
# Load a pretrained model
model = YOLO("yolo11n.pt")
# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolo11n.pt epochs=100 imgsz=640
Detaillierte Konfigurationsoptionen finden Sie auf der Seite Konfiguration.
Welche vortrainierten Modelle sind in YOLO11 verfügbar?
Ultralytics YOLO11 bietet verschiedene vortrainierte Modelle für Objekterkennung, Segmentierung und Posenschätzung. Diese Modelle werden auf dem COCO oder ImageNet für Klassifizierungsaufgaben vortrainiert. Hier sind einige der verfügbaren Modelle:
Eine detaillierte Liste und Leistungsmetriken finden Sie im Abschnitt Modelle.
Wie kann ich die Genauigkeit meines trainierten YOLO-Modells validieren?
Um die Genauigkeit Ihres trainierten YOLO11-Modells zu validieren, können Sie den .val() Methode in python oder den yolo detect val Befehl in der CLI. Dadurch werden Metriken wie mAP50, mAP50 und andere bereitgestellt.
Beispiel
from ultralytics import YOLO
# Load the model
model = YOLO("path/to/best.pt")
# Validate the model
metrics = model.val()
print(metrics.box.map) # mAP50-95
yolo detect val model=path/to/best.pt
Weitere Informationen zur Validierung finden Sie auf der Seite Val.
In welche Formate kann ich ein YOLO11-Modell exportieren?
Ultralytics YOLO11 ermöglicht den Export von Modellen in verschiedene Formate wie ONNX, TensorRT, CoreML und mehr, um die Kompatibilität über verschiedene Plattformen und Geräte hinweg zu gewährleisten.
Beispiel
from ultralytics import YOLO
# Load the model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx
Eine vollständige Liste der unterstützten Formate und Anweisungen finden Sie auf der Seite Export.
Warum sollte ich Ultralytics YOLO11 für die Objekterkennung verwenden?
Ultralytics YOLO11 wurde entwickelt, um eine hochmoderne Leistung für Objekterkennung, Segmentierung und Pose-Schätzung zu bieten. Hier sind einige der wichtigsten Vorteile:
- Vortrainierte Modelle: Verwendung von Modellen, die auf beliebten Datensätzen trainiert wurden, wie COCO und ImageNet für eine schnellere Entwicklung.
- Hohe Genauigkeit: Erzielt beeindruckende mAP und gewährleistet eine zuverlässige Objekterkennung.
- Geschwindigkeit: Optimiert für Echtzeit-Inferenz und somit ideal für Anwendungen, die eine schnelle Verarbeitung erfordern.
- Flexibilität: Exportieren Sie Modelle in verschiedene Formate wie ONNX und TensorRT für den Einsatz auf verschiedenen Plattformen.
Entdecken Sie unseren Blog für Anwendungsfälle und Erfolgsgeschichten, die YOLO11 in Aktion zeigen.