配向バウンディングボックスによる物体検出
配向物体検出は、物体検出よりもさらに一歩進んで、画像内の物体をより正確に特定するために余分な角度を導入する。
オブジェクト検出の出力は、画像内のオブジェクトを正確に囲む回転したバウンディングボックスの集合と、各ボックスのクラスラベルと信頼度スコアです。オブジェクト検出は、シーン内の興味のあるオブジェクトを識別する必要があるが、オブジェクトの位置や正確な形状を正確に知る必要がない場合に適しています。
チップ
YOLO11 OBBモデルは -obb
サフィックス、すなわち yolo11n-obb.pt
で事前に訓練されている。 DOTAv1.
見るんだ: Ultralytics YOLO Oriented Bounding Boxes (YOLO-OBB ) を用いた物体検出
ビジュアル・サンプル
OBBを使った船舶検知 | OBBによる車両検出 |
---|---|
モデル
YOLO11 ここでは、DOTAv1データセットで事前訓練されたOBBモデルを示す。
モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。
モデル | サイズ (ピクセル) |
mAPtest 50 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
- マッペテスト 数値はシングルモデルのマルチスケールのものである。 DOTAv1 データセット。
複製するyolo val obb data=DOTAv1.yaml device=0 split=test
に提出する。 DOTAの評価. - スピード を使用してDOTAv1の画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
複製するyolo val obb data=DOTAv1.yaml batch=1 device=0|cpu
電車
YOLO11n-obbをDOTA8データセットに画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-obb.yaml") # build a new model from YAML
model = YOLO("yolo11n-obb.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-obb.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="dota8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo obb train data=dota8.yaml model=yolo11n-obb.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo obb train data=dota8.yaml model=yolo11n-obb.yaml pretrained=yolo11n-obb.pt epochs=100 imgsz=640
見るんだ: Ultralytics YOLO -OBB (Oriented Bounding Boxes) モデルをUltralytics HUB を使って DOTA データセットで学習する方法。
データセット形式
OBBデータセットの形式は、データセットガイドに詳しく記載されている。
バル
学習済みYOLO11n-obbモデルの検証 精度 をDOTA8データセットに適用した。引数は必要ない。 model
トレーニング data
と引数をモデル属性として使用する。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-obb.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val(data="dota8.yaml") # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
予測する
訓練されたYOLO11n-obbモデルを使って、画像の予測を実行する。
例
見るんだ: Ultralytics YOLO -OBB|Oriented Bounding Boxes|DOTAを使用した貯蔵タンクの検出と追跡方法
詳細を見る predict
モードの詳細は 予測する ページを参照されたい。
輸出
YOLO11n-obbモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。
例
利用可能なYOLO11-obb エクスポートフォーマットは以下の表の通りです。どのフォーマットにも format
引数、すなわち format='onnx'
または format='engine'
.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n-obb.onnx
.使用例は、エクスポート完了後に表示されます。
フォーマット | format 議論 |
モデル | メタデータ | 議論 |
---|---|---|---|---|
PyTorch | - | yolo11n-obb.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-obb.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-obb.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-obb_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-obb.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-obb.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-obb_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-obb.pb |
❌ | imgsz , batch |
TF ライト | tflite |
yolo11n-obb.tflite |
✅ | imgsz , half , int8 , batch |
TF エッジTPU | edgetpu |
yolo11n-obb_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-obb_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-obb_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-obb.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-obb_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-obb_imx_model/ |
✅ | imgsz , int8 |
詳細を見る export
詳細は 輸出 ページを参照されたい。
よくあるご質問
オリエンテッド・バウンディング・ボックス(OBB)とは何か、通常のバウンディング・ボックスとどう違うのか?
OBB(Oriented Bounding Boxes)は、画像中のオブジェクトの位置決め精度を向上させるために、追加の角度を含んでいる。軸に沿った長方形である通常のバウンディングボックスとは異なり、OBBはオブジェクトの向きに合わせて回転することができます。これは、航空写真や衛星写真など、正確なオブジェクトの配置が必要なアプリケーションで特に役立ちます(Dataset Guide)。
カスタムデータセットを使ってYOLO11n-obbモデルをトレーニングするには?
カスタムデータセットでYOLO11n-obbモデルをトレーニングするには、Python またはCLI を使って、以下の例に従ってください:
例
その他のトレーニング引数については、コンフィギュレーションセクションをご覧ください。
YOLO11-OBB モデルのトレーニングに使用できるデータセットは?
YOLO11-OBBモデルはDOTAv1のようなデータセットで事前に学習されますが、OBB用にフォーマットされたデータセットであれば何でも使用できます。OBBデータセットのフォーマットに関する詳しい情報は、データセットガイドにあります。
YOLO11-OBB モデルをONNX フォーマットにエクスポートする方法を教えてください。
YOLO11-OBB モデルをONNX フォーマットにエクスポートするには、Python またはCLI を使用します:
例
その他のエクスポート形式や詳細については、エクスポートのページを参照してください。
YOLO11n-obbモデルの精度を検証するには?
YOLO11n-obbモデルを検証するには、以下に示すように、Python またはCLI コマンドを使用します:
例
バリデーションの詳細については、Valセクションを参照のこと。