物体検出
オブジェクト検出は、画像やビデオストリーム内のオブジェクトの位置とクラスを識別するタスクです。
オブジェクト検出の出力は、画像内のオブジェクトを囲むバウンディングボックスのセットと、各ボックスのクラスラベルと信頼度スコアです。オブジェクト検出は、シーン内の興味のあるオブジェクトを識別する必要があるが、オブジェクトの位置や正確な形状を正確に知る必要がない場合に適しています。
見るんだ: 事前に訓練されたUltralytics YOLO モデルによる物体検出。
チップ
YOLO11 ディテクト・モデルは、デフォルトのYOLO11 。 yolo11n.pt
で事前に訓練されている。 COCO.
モデル
YOLO11 ここでは、事前学習されたDetectモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されます。
モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。
モデル | サイズ (ピクセル) |
mAPval 50-95 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCO val2017 データセット。
複製するyolo val detect data=coco.yaml device=0
- スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
複製するyolo val detect data=coco.yaml batch=1 device=0|cpu
電車
COCO8データセットでYOLO11nを画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640
データセット形式
YOLO 検出データセットの形式は、データセットガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。
バル
学習済みYOLO11nモデルの検証 精度 をCOCO8データセットに適用した。引数は必要ない。 model
トレーニング data
と引数をモデル属性として使用する。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
予測する
訓練されたYOLO11nモデルを使って、画像の予測を実行する。
例
詳細を見る predict
モードの詳細は 予測する ページを参照されたい。
輸出
YOLO11nモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。
例
利用可能なYOLO11 エクスポート形式は以下の表の通りです。どのフォーマットでも format
引数、すなわち format='onnx'
または format='engine'
.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n.onnx
.使用例は、エクスポート完了後に表示されます。
フォーマット | format 議論 |
モデル | メタデータ | 議論 |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch |
TF ライト | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , batch |
TF エッジTPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolov8n_imx_model/ |
✅ | imgsz , int8 |
詳細を見る export
詳細は 輸出 ページを参照されたい。
よくあるご質問
カスタムデータセットでYOLO11 モデルをトレーニングするには?
YOLO11 モデルをカスタムデータセットでトレーニングするには、いくつかのステップがある:
- データセットを準備する:データセットがYOLO 形式であることを確認してください。ガイダンスについては、データセット・ガイドを参照してください。
- モデルをロードする:Ultralytics YOLO ライブラリを使用して、事前にトレーニングされたモデルをロードするか、YAML ファイルから新しいモデルを作成します。
- モデルを訓練する:を実行する。
train
メソッド(Python )またはyolo detect train
コマンドをCLI 。
例
詳細な設定オプションについては、設定のページをご覧ください。
YOLO11 、どのような事前学習済みモデルが利用できますか?
Ultralytics YOLO11 は、物体検出、セグメンテーション、および姿勢推定のための様々な事前学習済みモデルを提供します。これらのモデルは、COCOデータセットまたは分類タスク用のImageNetで事前学習されています。以下に、利用可能なモデルの一部を示します:
詳細なリストとパフォーマンス指標については、モデルのセクションを参照してください。
学習させたYOLO モデルの精度を検証するにはどうすればよいですか?
学習したYOLO11 モデルの精度を検証するには .val()
メソッド(Python )または yolo detect val
コマンドをCLI 。これにより、mAP50-95、mAP50などのメトリクスが得られる。
例
バリデーションの詳細については、バルのページをご覧ください。
YOLO11 、どのような形式でエクスポートできますか?
Ultralytics YOLO11 モデルをONNX,TensorRT,CoreML などの様々なフォーマットにエクスポートすることで、異なるプラットフォームやデバイス間での互換性を確保することができます。
例
エクスポートのページで、サポートされているフォーマットの完全なリストと手順を確認してください。
なぜ物体検出にUltralytics YOLO11 を使う必要があるのか?
Ultralytics YOLO11 は、オブジェクトの検出、セグメンテーション、およびポーズ推定において、最先端の性能を提供するように設計されている。以下に主な利点を挙げる:
- 事前学習済みモデル:COCOやImageNetのような一般的なデータセットで事前に訓練されたモデルを利用することで、より迅速な開発が可能になります。
- 高精度:驚異的なmAPスコアを達成し、信頼性の高い物体検出を実現。
- スピード:リアルタイム推論に最適化されており、迅速な処理を必要とするアプリケーションに最適です。
- 柔軟性:モデルをONNX やTensorRT などのさまざまな形式にエクスポートして、複数のプラットフォームに展開できます。
ブログでは、YOLO11 の使用例や成功事例をご紹介しています。