コンテンツへスキップ

Ultralytics YOLO11 モード

Ultralytics YOLO エコシステムと統合

はじめに

Ultralytics YOLO11 は単なる物体検出モデルではなく、データの取り込みやモデルのトレーニングから、検証、デプロイメント、実世界のトラッキングまで、機械学習モデルのライフサイクル全体をカバーするように設計された汎用性の高いフレームワークです。それぞれのモードは特定の目的に対応し、異なるタスクやユースケースに必要な柔軟性と効率性を提供するように設計されています。



見るんだ: Ultralytics モードチュートリアル:トレーニング、検証、予測、エクスポート、ベンチマーク。

モード一覧

Ultralytics YOLO11 がサポートするさまざまなモードを理解することは、モデルを最大限に活用するために非常に重要です:

  • Trainモード:カスタムまたはプリロードされたデータセットでモデルを微調整します。
  • Valモード:モデルのパフォーマンスを検証するためのトレーニング後のチェックポイント。
  • 予測モード:実世界のデータからモデルの予測力を引き出します。
  • エクスポートモードモデルを様々なフォーマットでデプロイできるようにします。
  • 追跡モード:オブジェクト検出モデルをリアルタイムの追跡アプリケーションに拡張します。
  • ベンチマークモード:様々な展開環境でモデルの速度と精度を分析します。

この包括的なガイドは、各モードの概要と実用的な洞察を提供し、YOLO11 の可能性を最大限に活用できるようにすることを目的としています。

電車

Trainモードは、カスタムデータセットでYOLO11 モデルを学習するために使用します。このモードでは、指定されたデータセットとハイパーパラメータを使ってモデルを学習します。学習プロセスでは、画像内のオブジェクトのクラスと位置を正確に予測できるように、モデルのパラメータを最適化します。トレーニングは、アプリケーションに関連する特定のオブジェクトを認識できるモデルを作成するために不可欠です。

列車の例

バル

Valモードは、YOLO11 モデルの学習後の検証に使用される。このモードでは、モデルを検証セットで評価し、その精度と汎化性能を測定します。検証は、オーバーフィッティングのような潜在的な問題を特定するのに役立ち、平均平均精度(mAP)のようなメトリクスを提供し、モデルの性能を定量化します。このモードは、ハイパーパラメータをチューニングし、全体的なモデルの有効性を改善するために重要です。

バルの例

予測する

予測モードは、新しい画像やビデオに対して学習済みのYOLO11 モデルを使用して予測を行うために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーは推論を実行するために画像やビデオを提供することができます。モデルは入力メディア内のオブジェクトを識別し、ローカライズするため、実世界での応用が可能になる。Predictモードは、学習したモデルを実用的な問題解決に応用するための入り口です。

例を予測する

輸出

エクスポートモードは、YOLO11 モデルを異なるプラットフォームやデバイスへのデプロイに適した形式に変換するために使用します。このモードは、PyTorch モデルをONNX、TensorRT、CoreMLような最適化されたフォーマットに変換し、実運用環境への展開を可能にします。エクスポートは、モデルを様々なソフトウェアアプリケーションやハードウェアデバイスと統合するために不可欠であり、多くの場合、大幅な性能向上をもたらします。

輸出の例

トラック

トラック・モードは、YOLO11物体検出機能を拡張し、ビデオ・フレームまたはライブ・ストリーム全体で物体を追跡します。このモードは、監視システムや自動運転車など、持続的なオブジェクト識別を必要とするアプリケーションに特に有効です。トラック・モードは、ByteTrackのような洗練されたアルゴリズムを実装し、物体が一時的に見えなくなった場合でも、フレームをまたいで物体の識別を維持します。

トラック例

ベンチマーク

ベンチマーク・モードは、YOLO11様々なエクスポート形式の速度と精度をプロファイルします。このモードは、ONNXような様々なフォーマットにおいて、モデル・サイズ、精度(検出タスクの場合はmAP50-95、分類の場合はaccuracy_top5)、推論時間に関する包括的なメトリクスを提供します、 OpenVINOやTensorRTようなさまざまな形式での推論時間を提供します。ベンチマークは、展開環境における速度と精度に対する特定の要件に基づいて、最適なエクスポート形式を選択するのに役立ちます。

ベンチマーク例

よくあるご質問

Ultralytics YOLO11 を使ってカスタムオブジェクト検出モデルをトレーニングするには?

Ultralytics YOLO11 でカスタムオブジェクト検出モデルをトレーニングするには、train モードを使用します。画像と対応するアノテーションファイルを含む、YOLO フォーマットのデータセットが必要です。以下のコマンドを使用して学習プロセスを開始します:

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

より詳細な手順については、Ultralytics Train Guideをご参照ください。

Ultralytics YOLO11 は、モデルのパフォーマンスを検証するためにどのような指標を使用していますか?

Ultralytics YOLO11 は、モデルの性能を評価するために、検証プロセスでさまざまなメトリクスを使用する。これには以下のようなものがある:

  • mAP(平均平均精度):物体検出の精度を評価する。
  • IOU(Intersection over Union):予測されたバウンディングボックスとグランドトゥルースのバウンディングボックスの重なりを測定する。
  • 精度と 再現率:プレシジョンは検出された陽性の総数に対する真陽性検出の比率を測定し、リコールは実際の陽性の総数に対する真陽性検出の比率を測定する。

以下のコマンドを実行して検証を開始することができる:

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

詳細はバリデーションガイドを参照。

デプロイ用にYOLO11 モデルをエクスポートするにはどうすればよいですか?

Ultralytics YOLO11 には、学習済みモデルをONNX,TensorRT,CoreML などのさまざまな展開形式に変換するエクスポート機能があります。モデルをエクスポートするには、以下の例を使用します:

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

各エクスポートフォーマットの詳細な手順は、エクスポートガイドに記載されています。

Ultralytics YOLO11 のベンチマークモードの目的は何ですか?

Ultralytics YOLO11 のベンチマーク・モードは、速度や性能の分析に使用される。 精度 ONNX,TensorRT,OpenVINO のような様々なエクスポート形式のモデルサイズなどのメトリクスを提供します、 mAP50-95 オブジェクト検出、推論時間など、さまざまなハードウェア・セットアップに対応し、導入ニーズに最適なフォーマットを選択できます。

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

詳細はベンチマークガイドを参照。

Ultralytics YOLO11 を使ってリアルタイムのオブジェクト・トラッキングを行うには?

リアルタイムのオブジェクト追跡は、Ultralytics YOLO11 のトラックモードを使用して実現できます。このモードは、オブジェクト検出機能を拡張し、ビデオフレームまたはライブフィード全体にわたってオブジェクトを追跡します。トラッキングを有効にするには、以下の例を使用します:

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

詳しい説明はトラックガイドをご覧ください。

📅作成:1年前 ✏️更新 11日前

コメント