コンテンツへスキップ

Ultralytics YOLO11 モード

Ultralytics YOLO エコシステムと統合

はじめに

Ultralytics YOLO11 は単なる物体検出モデルではなく、データの取り込みやモデルのトレーニングから、検証、デプロイメント、実世界のトラッキングまで、機械学習モデルのライフサイクル全体をカバーするように設計された汎用性の高いフレームワークです。それぞれのモードは特定の目的に対応し、異なるタスクやユースケースに必要な柔軟性と効率性を提供するように設計されています。



見るんだ: Ultralytics モードチュートリアル:トレーニング、検証、予測、エクスポート、ベンチマーク。

モード一覧

Ultralytics YOLO11 がサポートするさまざまなモードを理解することは、モデルを最大限に活用するために非常に重要です:

  • Trainモード:カスタムまたはプリロードされたデータセットでモデルを微調整します。
  • Valモード:モデルのパフォーマンスを検証するためのトレーニング後のチェックポイント。
  • 予測モード:実世界のデータからモデルの予測力を引き出します。
  • エクスポートモードモデルを様々なフォーマットでデプロイできるようにします。
  • 追跡モード:オブジェクト検出モデルをリアルタイムの追跡アプリケーションに拡張します。
  • ベンチマークモード:様々な展開環境でモデルの速度と精度を分析します。

この包括的なガイドは、各モードの概要と実用的な洞察を提供し、YOLO11 の可能性を最大限に活用できるようにすることを目的としています。

電車

Trainモードは、カスタムデータセットでYOLO11 モデルの学習に使用します。このモードでは、指定されたデータセットとハイパーパラメータを使用してモデルがトレーニングされます。学習プロセスでは、画像内のオブジェクトのクラスと位置を正確に予測できるように、モデルのパラメータを最適化します。

列車の例

バル

Valモードは、YOLO11 モデルが学習された後の検証に使用される。このモードでは、モデルの精度と汎化性能を測定するために、モデルが検証集合で評価される。このモードは、モデルの性能を向上させるために、モデルのハイパーパラメータを調整するために使用できます。

バルの例

予測する

Predict(予測)モードは、新しい画像やビデオに対して学習されたYOLO11 モデルを使用して予測を行うために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーは推論を実行するために画像やビデオを提供することができます。モデルは、入力画像またはビデオ内のオブジェクトのクラスと位置を予測します。

例を予測する

輸出

エクスポートモードは、YOLO11 のモデルを配備に使用できる形式にエクスポートするために使用します。このモードでは、モデルは他のソフトウェア・アプリケーションやハードウェア・デバイスで使用できる形式に変換されます。このモードは、モデルを本番環境に配備する際に便利です。

輸出の例

トラック

トラックモードは、YOLO11 モデルを使ってリアルタイムでオブジェクトを追跡するために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーはライブビデオストリームを提供してリアルタイムのオブジェクトトラッキングを実行することができます。このモードは、監視システムや自動運転車などのアプリケーションに便利です。

トラック例

ベンチマーク

ベンチマークモードは、YOLO11 の様々なエクスポートフォーマットの速度と精度のプロファイリングに使用されます。ベンチマークは、エクスポートされたフォーマットのサイズ、その mAP50-95 メトリクス(オブジェクト検出、セグメンテーション、ポーズ用)または accuracy_top5 メトリックス(分類用)、ONNX 、OpenVINO 、TensorRT などの様々なフォーマットにおける画像1枚あたりの推論時間(ミリ秒)。この情報は、ユーザーが速度と精度の要件に基づいて、特定のユースケースに最適なエクスポート形式を選択するのに役立ちます。

ベンチマーク例

よくあるご質問

Ultralytics YOLO11 を使ってカスタムオブジェクト検出モデルをトレーニングするには?

Ultralytics YOLO11 でカスタムオブジェクト検出モデルをトレーニングするには、train モードを使用します。画像と対応するアノテーションファイルを含む、YOLO フォーマットのデータセットが必要です。以下のコマンドを使用して学習プロセスを開始します:

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

より詳細な手順については、Ultralytics Train Guideをご参照ください。

Ultralytics YOLO11 は、モデルのパフォーマンスを検証するためにどのような指標を使用していますか?

Ultralytics YOLO11 は、モデルの性能を評価するために、検証プロセスでさまざまなメトリクスを使用する。これには以下のようなものがある:

  • mAP(平均平均精度):物体検出の精度を評価する。
  • IOU(Intersection over Union):予測されたバウンディングボックスとグランドトゥルースのバウンディングボックスの重なりを測定する。
  • 精度と 再現率:プレシジョンは検出された陽性の総数に対する真陽性検出の比率を測定し、リコールは実際の陽性の総数に対する真陽性検出の比率を測定する。

以下のコマンドを実行して検証を開始することができる:

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

詳細はバリデーションガイドを参照。

デプロイ用にYOLO11 モデルをエクスポートするにはどうすればよいですか?

Ultralytics YOLO11 には、学習済みモデルをONNX,TensorRT,CoreML などのさまざまな展開形式に変換するエクスポート機能があります。モデルをエクスポートするには、以下の例を使用します:

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

各エクスポートフォーマットの詳細な手順は、エクスポートガイドに記載されています。

Ultralytics YOLO11 のベンチマークモードの目的は何ですか?

Ultralytics YOLO11 のベンチマーク・モードは、速度や性能の分析に使用される。 精度 ONNX,TensorRT,OpenVINO のような様々なエクスポート形式のモデルサイズなどのメトリクスを提供します、 mAP50-95 オブジェクト検出、推論時間など、さまざまなハードウェア・セットアップに対応し、導入ニーズに最適なフォーマットを選択できます。

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

詳細はベンチマークガイドを参照。

Ultralytics YOLO11 を使ってリアルタイムのオブジェクト・トラッキングを行うには?

リアルタイムのオブジェクト追跡は、Ultralytics YOLO11 のトラックモードを使用して実現できます。このモードは、オブジェクト検出機能を拡張し、ビデオフレームまたはライブフィード全体にわたってオブジェクトを追跡します。トラッキングを有効にするには、以下の例を使用します:

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

詳しい説明はトラックガイドをご覧ください。

📅作成:1年前 ✏️更新しました 2ヶ月前

コメント