Zum Inhalt springen

Oriented Bounding Boxes Objekterkennung

Die orientierte Objekterkennung geht einen Schritt weiter als die Objekterkennung und führt einen zusätzlichen Winkel ein, um Objekte in einem Bild genauer zu lokalisieren.

Die Ausgabe eines orientierten Objektdetektors ist eine Reihe von gedrehten Boundingboxen, die die Objekte im Bild genau umschließen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jede Box. Die Objekterkennung ist eine gute Wahl, wenn du interessante Objekte in einer Szene identifizieren musst, aber nicht genau wissen willst, wo sich das Objekt befindet oder welche Form es hat.

Tipp

YOLOv8 OBB-Modelle verwenden die -obb Suffix, d.h.. yolov8n-obb.pt und sind vorgebildet auf DOTAv1.


Pass auf: Objekterkennung mit Ultralytics YOLOv8 Oriented Bounding Boxes (YOLOv8-OBB)

Pass auf: Objekterkennung mit YOLOv8-OBB mit Ultralytics HUB

Visuelle Muster

Schiffe aufspüren mit OBB Fahrzeugerfassung mit OBB
Schiffe aufspüren mit OBB Fahrzeugerfassung mit OBB

Modelle

YOLOv8 werden hier vortrainierte OBB-Modelle gezeigt, die auf dem DOTAv1-Datensatz vortrainiert wurden.

Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.

Modell Größe
(Pixel)
mAPtest
50
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-obb 1024 78.0 204.77 3.57 3.1 23.3
YOLOv8s-obb 1024 79.5 424.88 4.07 11.4 76.3
YOLOv8m-obb 1024 80.5 763.48 7.61 26.4 208.6
YOLOv8l-obb 1024 80.7 1278.42 11.83 44.5 433.8
YOLOv8x-obb 1024 81.36 1759.10 13.23 69.5 676.7
  • mAPtest Werte sind für Einzelmodell-Multiskala auf DOTAv1 Test Datensatz.
    Reproduzieren durch yolo val obb data=DOTAv1.yaml device=0 split=test und übermitteln Sie die zusammengeführten Ergebnisse an DOTA-Bewertung.
  • Geschwindigkeit gemittelt über DOTAv1-Val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val obb data=DOTAv1.yaml batch=1 device=0|cpu

Zug

Zug YOLOv8n-obb auf der dota8.yaml Datensatz für 100 Epochen bei einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente findest du in der Konfiguration Seite.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.yaml")  # build a new model from YAML
model = YOLO("yolov8n-obb.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-obb.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="dota8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo obb train data=dota8.yaml model=yolov8n-obb.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo obb train data=dota8.yaml model=yolov8n-obb.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo obb train data=dota8.yaml model=yolov8n-obb.yaml pretrained=yolov8n-obb.pt epochs=100 imgsz=640

Format des Datensatzes

Das OBB-Datensatzformat findest du im Detail im Dataset Guide.

Val

Überprüfe die Genauigkeit des trainierten YOLOv8n-obb-Modells auf dem DOTA8-Datensatz. Es muss kein Argument übergeben werden, da die model seine Ausbildung beibehält data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val(data="dota8.yaml")  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
yolo obb val model=yolov8n-obb.pt data=dota8.yaml  # val official model
yolo obb val model=path/to/best.pt data=path/to/data.yaml  # val custom model

Vorhersage

Verwende ein trainiertes YOLOv8n-obb Modell, um Vorhersagen für Bilder zu treffen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo obb predict model=yolov8n-obb.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo obb predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Siehe voll predict Modus Details in der Vorhersage Seite.

exportieren

Exportiere ein YOLOv8n-obb Modell in ein anderes Format wie ONNX, CoreML, etc.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-obb.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Die verfügbaren YOLOv8-obb Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format Argument, d.h. format='onnx' oder format='engine'. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-obb.onnx. Nach Abschluss des Exports werden Anwendungsbeispiele für dein Modell angezeigt.

Format format Argument Modell Metadaten Argumente
PyTorch - yolov8n-obb.pt -
TorchScript torchscript yolov8n-obb.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-obb.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-obb_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-obb.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-obb.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-obb_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-obb.pb imgsz, batch
TF Lite tflite yolov8n-obb.tflite imgsz, half, int8, batch
TF Kante TPU edgetpu yolov8n-obb_edgetpu.tflite imgsz
TF.js tfjs yolov8n-obb_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-obb_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-obb_ncnn_model/ imgsz, half, batch

Siehe voll export Details in der exportieren Seite.

FAQ

Was sind Oriented Bounding Boxes (OBB) und wie unterscheiden sie sich von normalen Bounding Boxes?

Oriented Bounding Boxes (OBB) enthalten einen zusätzlichen Winkel, um die Genauigkeit der Objektlokalisierung in Bildern zu verbessern. Im Gegensatz zu normalen Bounding Boxes, die achsenausgerichtete Rechtecke sind, können OBBs gedreht werden, um sich besser an die Ausrichtung des Objekts anzupassen. Dies ist besonders nützlich für Anwendungen, die eine genaue Objektplatzierung erfordern, wie z. B. Luft- oder Satellitenbilder(Dataset Guide).

Wie trainiere ich ein YOLOv8n-obb Modell mit einem eigenen Datensatz?

Um ein YOLOv8n-obb Modell mit einem benutzerdefinierten Datensatz zu trainieren, befolge das folgende Beispiel mit Python oder CLI:

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-obb.pt")

# Train the model
results = model.train(data="path/to/custom_dataset.yaml", epochs=100, imgsz=640)
yolo obb train data=path/to/custom_dataset.yaml model=yolov8n-obb.pt epochs=100 imgsz=640

Weitere Argumente für die Ausbildung findest du im Abschnitt Konfiguration.

Welche Datensätze kann ich für das Training von YOLOv8-OBB-Modellen verwenden?

YOLOv8-OBB-Modelle werden mit Datensätzen wie DOTAv1 trainiert, aber du kannst jeden Datensatz verwenden, der für OBB formatiert ist. Ausführliche Informationen zu OBB-Datensatzformaten findest du im Dataset Guide.

Wie kann ich ein YOLOv8-OBB-Modell in das Format ONNX exportieren?

Der Export eines YOLOv8-OBB Modells in das ONNX Format ist mit Python oder CLI ganz einfach:

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.pt")

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-obb.pt format=onnx

Weitere Exportformate und Details findest du auf der Seite Export.

Wie kann ich die Genauigkeit eines YOLOv8n-obb Modells überprüfen?

Um ein YOLOv8n-obb Modell zu validieren, kannst du die Befehle Python oder CLI verwenden (siehe unten):

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-obb.pt")

# Validate the model
metrics = model.val(data="dota8.yaml")
yolo obb val model=yolov8n-obb.pt data=dota8.yaml

Alle Details zur Validierung findest du im Abschnitt Val.



Erstellt 2024-01-05, Aktualisiert 2024-07-04
Autoren: glenn-jocher (22), Burhan-Q (4), Laughing-q (3), AyushExel (1)

Kommentare