コンテンツへスキップ

配向バウンディングボックスによる物体検出

配向物体検出は、物体検出よりもさらに一歩進んで、画像内の物体をより正確に特定するために余分な角度を導入する。

オブジェクト検出の出力は、画像内のオブジェクトを正確に囲む回転したバウンディングボックスの集合と、各ボックスのクラスラベルと信頼度スコアです。オブジェクト検出は、シーン内の興味のあるオブジェクトを識別する必要があるが、オブジェクトの位置や正確な形状を正確に知る必要がない場合に適しています。

チップ

YOLO11 OBBモデルは -obb サフィックス、すなわち yolo11n-obb.pt で事前に訓練されている。 DOTAv1.



見るんだ: Ultralytics YOLO Oriented Bounding Boxes (YOLO-OBB ) を用いた物体検出

ビジュアル・サンプル

OBBを使った船舶検知 OBBによる車両検出
OBBを使った船舶検知 OBBによる車両検出

モデル

YOLO11 ここでは、DOTAv1データセットで事前訓練されたOBBモデルを示す。

モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。

モデル サイズ
(ピクセル)
mAPtest
50
速度
CPU ONNX
(ms)
スピード
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-obb 1024 78.4 117.6 ± 0.8 4.4 ± 0.0 2.7 17.2
YOLO11s-obb 1024 79.5 219.4 ± 4.0 5.1 ± 0.0 9.7 57.5
YOLO11m-obb 1024 80.9 562.8 ± 2.9 10.1 ± 0.4 20.9 183.5
YOLO11l-obb 1024 81.0 712.5 ± 5.0 13.5 ± 0.6 26.2 232.0
YOLO11x-obb 1024 81.3 1408.6 ± 7.7 28.6 ± 1.0 58.8 520.2
  • マッペテスト 数値はシングルモデルのマルチスケールのものである。 DOTAv1 データセット。
    複製する yolo val obb data=DOTAv1.yaml device=0 split=test に提出する。 DOTAの評価.
  • スピード を使用してDOTAv1の画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
    複製する yolo val obb data=DOTAv1.yaml batch=1 device=0|cpu

電車

YOLO11n-obbをDOTA8データセットに画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.yaml")  # build a new model from YAML
model = YOLO("yolo11n-obb.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-obb.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="dota8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo obb train data=dota8.yaml model=yolo11n-obb.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml pretrained=yolo11n-obb.pt epochs=100 imgsz=640



見るんだ: Ultralytics YOLO -OBB (Oriented Bounding Boxes) モデルをUltralytics HUB を使って DOTA データセットで学習する方法。

データセット形式

OBBデータセットの形式は、データセットガイドに詳しく記載されている。

バル

学習済みYOLO11n-obbモデルの検証 精度 をDOTA8データセットに適用した。引数は必要ない。 model トレーニング data と引数をモデル属性として使用する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val(data="dota8.yaml")  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
yolo obb val model=yolo11n-obb.pt data=dota8.yaml  # val official model
yolo obb val model=path/to/best.pt data=path/to/data.yaml  # val custom model

予測する

訓練されたYOLO11n-obbモデルを使って、画像の予測を実行する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/boats.jpg")  # predict on an image
yolo obb predict model=yolo11n-obb.pt source='https://ultralytics.com/images/boats.jpg'  # predict with official model
yolo obb predict model=path/to/best.pt source='https://ultralytics.com/images/boats.jpg'  # predict with custom model



見るんだ: Ultralytics YOLO -OBB|Oriented Bounding Boxes|DOTAを使用した貯蔵タンクの検出と追跡方法

詳細を見る predict モードの詳細は 予測する ページを参照されたい。

輸出

YOLO11n-obbモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-obb.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

利用可能なYOLO11-obb エクスポートフォーマットは以下の表の通りです。どのフォーマットにも format 引数、すなわち format='onnx' または format='engine'.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n-obb.onnx.使用例は、エクスポート完了後に表示されます。

フォーマット format 議論 モデル メタデータ 議論
PyTorch - yolo11n-obb.pt -
TorchScript torchscript yolo11n-obb.torchscript imgsz, optimize, batch
ONNX onnx yolo11n-obb.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n-obb_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n-obb.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n-obb.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-obb_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n-obb.pb imgsz, batch
TF ライト tflite yolo11n-obb.tflite imgsz, half, int8, batch
TF エッジTPU edgetpu yolo11n-obb_edgetpu.tflite imgsz
TF.js tfjs yolo11n-obb_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n-obb_paddle_model/ imgsz, batch
MNN mnn yolo11n-obb.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-obb_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-obb_imx_model/ imgsz, int8

詳細を見る export 詳細は 輸出 ページを参照されたい。

よくあるご質問

オリエンテッド・バウンディング・ボックス(OBB)とは何か、通常のバウンディング・ボックスとどう違うのか?

OBB(Oriented Bounding Boxes)は、画像中のオブジェクトの位置決め精度を向上させるために、追加の角度を含んでいる。軸に沿った長方形である通常のバウンディングボックスとは異なり、OBBはオブジェクトの向きに合わせて回転することができます。これは、航空写真や衛星写真など、正確なオブジェクトの配置が必要なアプリケーションで特に役立ちます(Dataset Guide)。

カスタムデータセットを使ってYOLO11n-obbモデルをトレーニングするには?

カスタムデータセットでYOLO11n-obbモデルをトレーニングするには、Python またはCLI を使って、以下の例に従ってください:

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-obb.pt")

# Train the model
results = model.train(data="path/to/custom_dataset.yaml", epochs=100, imgsz=640)
yolo obb train data=path/to/custom_dataset.yaml model=yolo11n-obb.pt epochs=100 imgsz=640

その他のトレーニング引数については、コンフィギュレーションセクションをご覧ください。

YOLO11-OBB モデルのトレーニングに使用できるデータセットは?

YOLO11-OBBモデルはDOTAv1のようなデータセットで事前に学習されますが、OBB用にフォーマットされたデータセットであれば何でも使用できます。OBBデータセットのフォーマットに関する詳しい情報は、データセットガイドにあります。

YOLO11-OBB モデルをONNX フォーマットにエクスポートする方法を教えてください。

YOLO11-OBB モデルをONNX フォーマットにエクスポートするには、Python またはCLI を使用します:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.pt")

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-obb.pt format=onnx

その他のエクスポート形式や詳細については、エクスポートのページを参照してください。

YOLO11n-obbモデルの精度を検証するには?

YOLO11n-obbモデルを検証するには、以下に示すように、Python またはCLI コマンドを使用します:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-obb.pt")

# Validate the model
metrics = model.val(data="dota8.yaml")
yolo obb val model=yolo11n-obb.pt data=dota8.yaml

バリデーションの詳細については、Valセクションを参照のこと。

📅作成 10ヶ月前 ✏️更新日: 27日前

コメント