Oriented Bounding Boxes Objekterkennung
Die orientierte Objekterkennung geht einen Schritt weiter als die Standard-Objekterkennung, indem sie einen zusätzlichen Winkel einführt, um Objekte in einem Bild genauer zu lokalisieren.
Die Ausgabe eines orientierten Objektdetektors ist eine Reihe von gedrehten Bounding Boxes, die die Objekte im Bild genau umschließen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jede Box. Orientierte Bounding Boxes sind besonders nützlich, wenn Objekte in verschiedenen Winkeln erscheinen, wie z. B. in Luftbildern, wo herkömmliche achsenausgerichtete Bounding Boxes unnötigen Hintergrund enthalten können.
Tipp
YOLO11 OBB-Modelle verwenden die -obb
Suffix, d.h. yolo11n-obb.pt
und sind vorgebildet auf DOTAv1.
Beobachten: Objekterkennung mit Ultralytics YOLO Oriented Bounding Boxes (YOLO-OBB)
Visuelle Muster
Erkennung von Schiffen mit OBB | Fahrzeugdetektion mit OBB |
---|---|
![]() |
![]() |
Modelle
YOLO11 werden hier vortrainierte OBB-Modelle gezeigt, die auf dem DOTAv1-Datensatz vortrainiert wurden.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | Größe (Pixel) |
mAPtest 50 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
- mAPtest Werte sind für Einzelmodell-Multiskala auf DOTAv1 Datensatz.
Reproduzieren durchyolo val obb data=DOTAv1.yaml device=0 split=test
und übermitteln Sie die zusammengeführten Ergebnisse an DOTA-Bewertung. - Geschwindigkeit gemittelt über DOTAv1 val Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val obb data=DOTAv1.yaml batch=1 device=0|cpu
Zug
Trainieren Sie YOLO11n-obb auf dem DOTA8-Datensatz für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-obb.yaml") # build a new model from YAML
model = YOLO("yolo11n-obb.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-obb.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="dota8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo obb train data=dota8.yaml model=yolo11n-obb.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml pretrained=yolo11n-obb.pt epochs=100 imgsz=640
Beobachten: Wie man Ultralytics YOLO -OBB (Oriented Bounding Boxes) Modelle auf DOTA Daten mit Ultralytics HUB trainiert
Format des Datensatzes
Das OBB-Datensatzformat wird im Datensatz-Leitfaden detailliert beschrieben. Das YOLO OBB-Format bezeichnet Bounding Boxes durch ihre vier Eckpunkte mit Koordinaten, die zwischen 0 und 1 normalisiert sind und dieser Struktur folgen:
Intern verarbeitet YOLO Verluste und Erträge in der xywhr
Format, das die BegrenzungsrechteckMittelpunkt (xy), Breite, Höhe und Drehung.
Val
Validierung des trainierten YOLO11n-obb Modells Genauigkeit für den DOTA8-Datensatz. Es werden keine Argumente benötigt, da die model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-obb.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val(data="dota8.yaml") # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
Vorhersage
Verwenden Sie ein trainiertes YOLO11n-obb-Modell, um Vorhersagen für Bilder zu treffen.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-obb.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Predict with the model
results = model("https://ultralytics.com/images/boats.jpg") # predict on an image
# Access the results
for result in results:
xywhr = result.keypoints.xy # center-x, center-y, width, height, angle (radians)
xyxyxyxy = result.obb.xyxyxyxy # polygon format with 4-points
names = [result.names[cls.item()] for cls in result.obb.cls.int()] # class name of each box
confs = result.obb.conf # confidence score of each box
Beobachten: Erkennung und Verfolgung von Lagertanks mit Ultralytics YOLO -OBB | Oriented Bounding Boxes | DOTA
Vollständig sehen predict
Modus Details im Vorhersage Seite.
Exportieren
Exportieren Sie ein YOLO11n-obb Modell in ein anderes Format wie ONNX, CoreML, etc.
Beispiel
Die verfügbaren YOLO11-obb Exportformate sind in der nachstehenden Tabelle aufgeführt. Sie können in jedes beliebige Format exportieren, indem Sie die format
Argument, d.h. format='onnx'
oder format='engine'
. Sie können exportierte Modelle direkt vorhersagen oder validieren, d. h. yolo predict model=yolo11n-obb.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele für Ihr Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolo11n-obb.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-obb.torchscript |
✅ | imgsz , optimize , nms , batch |
ONNX | onnx |
yolo11n-obb.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch |
OpenVINO | openvino |
yolo11n-obb_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data |
TensorRT | engine |
yolo11n-obb.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data |
CoreML | coreml |
yolo11n-obb.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-obb_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch |
TF GraphDef | pb |
yolo11n-obb.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-obb.tflite |
✅ | imgsz , half , int8 , nms , batch , data |
TF Kante TPU | edgetpu |
yolo11n-obb_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-obb_web_model/ |
✅ | imgsz , half , int8 , nms , batch |
PaddlePaddle | paddle |
yolo11n-obb_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-obb.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-obb_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-obb_imx_model/ |
✅ | imgsz , int8 , data |
RKNN | rknn |
yolo11n-obb_rknn_model/ |
✅ | imgsz , batch , name |
Vollständig sehen export
Details im Exportieren Seite.
Anwendungen in der realen Welt
Die OBB-Erkennung mit YOLO11 hat zahlreiche praktische Anwendungen in verschiedenen Branchen:
- Schifffahrt und Hafenmanagement: Erkennung von Schiffen und Booten aus verschiedenen Blickwinkeln für Flottenmanagement und Überwachung.
- Stadtplanung: Analyse von Gebäuden und Infrastruktur aus Luftbildern.
- Landwirtschaft: Überwachung von Nutzpflanzen und landwirtschaftlichen Geräten mit Hilfe von Drohnenaufnahmen.
- Energiesektor: Inspektion von Sonnenkollektoren und Windturbinen in verschiedenen Ausrichtungen.
- Transport: Verfolgung von Fahrzeugen auf Straßen und auf Parkplätzen aus verschiedenen Perspektiven.
Diese Anwendungen profitieren von der Fähigkeit von OBB, Objekte in jedem Winkel präzise einzupassen, und bieten eine genauere Erkennung als herkömmliche Bounding Boxes.
FAQ
Was sind Oriented Bounding Boxes (OBB) und wie unterscheiden sie sich von normalen Bounding Boxes?
Oriented Bounding Boxes (OBB) enthalten einen zusätzlichen Winkel, um die Genauigkeit der Objektlokalisierung in Bildern zu verbessern. Im Gegensatz zu normalen Bounding Boxes, die achsenausgerichtete Rechtecke sind, können OBBs gedreht werden, um sich besser an die Ausrichtung des Objekts anzupassen. Dies ist besonders nützlich für Anwendungen, die eine präzise Objektplatzierung erfordern, wie z. B. Luft- oder Satellitenbilder(Dataset Guide).
Wie trainiere ich ein YOLO11n-obb Modell mit einem eigenen Datensatz?
Um ein YOLO11n-obb Modell mit einem benutzerdefinierten Datensatz zu trainieren, folgen Sie dem folgenden Beispiel mit Python oder CLI:
Beispiel
Weitere Trainingsargumente finden Sie im Abschnitt Konfiguration.
Welche Datensätze kann ich für das Training von YOLO11-OBB-Modellen verwenden?
YOLO11-OBB-Modelle werden mit Datensätzen wie DOTAv1 trainiert, aber Sie können jeden für OBB formatierten Datensatz verwenden. Detaillierte Informationen zu OBB-Datensatzformaten finden Sie im Dataset Guide.
Wie kann ich ein YOLO11-OBB-Modell in das Format ONNX exportieren?
Der Export eines YOLO11-OBB Modells in das ONNX Format ist mit Python oder CLI einfach möglich:
Beispiel
Weitere Exportformate und Details finden Sie auf der Seite Export.
Wie kann ich die Genauigkeit eines YOLO11n-obb-Modells validieren?
Um ein YOLO11n-obb Modell zu validieren, können Sie die Befehle Python oder CLI verwenden, wie unten gezeigt:
Beispiel
Weitere Informationen zur Validierung finden Sie im Abschnitt Val.