コンテンツへスキップ

物体検出

物体検出の例

オブジェクト検出は、画像やビデオストリーム内のオブジェクトの位置とクラスを識別するタスクです。

オブジェクト検出の出力は、画像内のオブジェクトを囲むバウンディングボックスのセットと、各ボックスのクラスラベルと信頼度スコアです。オブジェクト検出は、シーン内の興味のあるオブジェクトを識別する必要があるが、オブジェクトの位置や正確な形状を正確に知る必要がない場合に適しています。



見るんだ: 事前に訓練されたUltralytics YOLO モデルによる物体検出。

チップ

YOLO11 ディテクト・モデルは、デフォルトのYOLO11 。 yolo11n.pt で事前に訓練されている。 COCO.

モデル

YOLO11 ここでは、事前学習されたDetectモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されます。

モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。

モデル サイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
スピード
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9
  • マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCO val2017 データセット。
    複製する yolo val detect data=coco.yaml device=0
  • スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
    複製する yolo val detect data=coco.yaml batch=1 device=0|cpu

電車

COCO8データセットでYOLO11nを画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

データセット形式

YOLO 検出データセットの形式は、データセットガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。

バル

学習済みYOLO11nモデルの検証 精度 をCOCO8データセットに適用した。引数は必要ない。 model トレーニング data と引数をモデル属性として使用する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolo11n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

予測する

訓練されたYOLO11nモデルを使って、画像の予測を実行する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

詳細を見る predict モードの詳細は 予測する ページを参照されたい。

輸出

YOLO11nモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

利用可能なYOLO11 エクスポート形式は以下の表の通りです。どのフォーマットでも format 引数、すなわち format='onnx' または format='engine'.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n.onnx.使用例は、エクスポート完了後に表示されます。

フォーマット format 議論 モデル メタデータ 議論
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF ライト tflite yolo11n.tflite imgsz, half, int8, batch
TF エッジTPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8

詳細を見る export 詳細は 輸出 ページを参照されたい。

よくあるご質問

カスタムデータセットでYOLO11 モデルをトレーニングするには?

YOLO11 モデルをカスタムデータセットでトレーニングするには、いくつかのステップがある:

  1. データセットを準備する:データセットがYOLO 形式であることを確認してください。ガイダンスについては、データセット・ガイドを参照してください。
  2. モデルをロードする:Ultralytics YOLO ライブラリを使用して、事前にトレーニングされたモデルをロードするか、YAML ファイルから新しいモデルを作成します。
  3. モデルを訓練する:を実行する。 train メソッド(Python )または yolo detect train コマンドをCLI 。

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolo11n.pt epochs=100 imgsz=640

詳細な設定オプションについては、設定のページをご覧ください。

YOLO11 、どのような事前学習済みモデルが利用できますか?

Ultralytics YOLO11 は、物体検出、セグメンテーション、および姿勢推定のための様々な事前学習済みモデルを提供します。これらのモデルは、COCOデータセットまたは分類タスク用のImageNetで事前学習されています。以下に、利用可能なモデルの一部を示します:

詳細なリストとパフォーマンス指標については、モデルのセクションを参照してください。

学習させたYOLO モデルの精度を検証するにはどうすればよいですか?

学習したYOLO11 モデルの精度を検証するには .val() メソッド(Python )または yolo detect val コマンドをCLI 。これにより、mAP50-95、mAP50などのメトリクスが得られる。

from ultralytics import YOLO

# Load the model
model = YOLO("path/to/best.pt")

# Validate the model
metrics = model.val()
print(metrics.box.map)  # mAP50-95
yolo detect val model=path/to/best.pt

バリデーションの詳細については、バルのページをご覧ください。

YOLO11 、どのような形式でエクスポートできますか?

Ultralytics YOLO11 モデルをONNX,TensorRT,CoreML などの様々なフォーマットにエクスポートすることで、異なるプラットフォームやデバイス間での互換性を確保することができます。

from ultralytics import YOLO

# Load the model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx

エクスポートのページで、サポートされているフォーマットの完全なリストと手順を確認してください。

なぜ物体検出にUltralytics YOLO11 を使う必要があるのか?

Ultralytics YOLO11 は、オブジェクトの検出、セグメンテーション、およびポーズ推定において、最先端の性能を提供するように設計されている。以下に主な利点を挙げる:

  1. 事前学習済みモデル:COCOやImageNetのような一般的なデータセットで事前に訓練されたモデルを利用することで、より迅速な開発が可能になります。
  2. 高精度:驚異的なmAPスコアを達成し、信頼性の高い物体検出を実現。
  3. スピード:リアルタイム推論に最適化されており、迅速な処理を必要とするアプリケーションに最適です。
  4. 柔軟性:モデルをONNX やTensorRT などのさまざまな形式にエクスポートして、複数のプラットフォームに展開できます。

ブログでは、YOLO11 の使用例や成功事例をご紹介しています。

📅作成:1年前 ✏️更新:1ヶ月前

コメント