Ultralytics YOLO11のモード
はじめに
Ultralytics YOLO11は、単なる物体検出モデルではありません。データ取り込みやモデルトレーニングから、検証、デプロイメント、および実際の追跡まで、機械学習モデルのライフサイクル全体をカバーするように設計された汎用性の高いフレームワークです。各モードは特定の目的に役立ち、さまざまなタスクとユースケースに必要な柔軟性と効率を提供するように設計されています。
見る: Ultralyticsモードチュートリアル:Train(トレーニング)、Validate(検証)、Predict(予測)、Export(エクスポート)、Benchmark(ベンチマーク)。
モードの概要
Ultralytics YOLO11がサポートするさまざまなモードを理解することは、モデルを最大限に活用するために重要です。
- Trainモード: カスタムまたはプリロードされたデータセットでモデルを微調整します。
- Val モード: モデルのパフォーマンスを検証するためのトレーニング後のチェックポイント。
- Predict モード: モデルの予測能力を実際のデータで解き放ちます。
- エクスポートモード: さまざまな形式でモデルのデプロイ準備をします。
- 追跡モード:オブジェクト検出モデルをリアルタイム追跡アプリケーションに拡張します。
- ベンチマーク モード: さまざまなデプロイ環境におけるモデルの速度と精度を分析します。
この包括的なガイドは、各モードの概要と実践的な洞察を提供し、YOLO11の潜在能力を最大限に引き出すことを目的としています。
トレーニング
学習モードは、カスタムデータセットでYOLO11モデルを学習するために使用されます。このモードでは、指定されたデータセットとハイパーパラメータを使用してモデルが学習されます。学習プロセスでは、画像内のオブジェクトのクラスと場所を正確に予測できるように、モデルのパラメータを最適化します。学習は、アプリケーションに関連する特定のオブジェクトを認識できるモデルを作成するために不可欠です。
Val
Valモードは、トレーニング後のYOLO11モデルを検証するために使用されます。このモードでは、モデルは検証セットで評価され、その精度と汎化性能が測定されます。検証は、過学習などの潜在的な問題を特定するのに役立ち、モデルのパフォーマンスを定量化するために平均適合率(mAP)などのメトリックを提供します。このモードは、ハイパーパラメータを調整し、モデル全体の有効性を向上させるために重要です。
予測
Predictモードは、トレーニング済みのYOLO11モデルを使用して、新しい画像や動画で予測を行うために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーは推論を実行するための画像または動画を提供できます。モデルは、入力メディア内のオブジェクトを識別してローカライズし、実際のアプリケーションに対応できるようにします。Predictモードは、トレーニング済みのモデルを適用して実際的な問題を解決するための入り口となります。
エクスポート
エクスポートモードは、YOLO11モデルをさまざまなプラットフォームやデバイスでのデプロイに適した形式に変換するために使用されます。このモードでは、PyTorchモデルがONNX、TensorRT、CoreMLなどの最適化された形式に変換され、本番環境でのデプロイが可能になります。エクスポートは、モデルをさまざまなソフトウェアアプリケーションやハードウェアデバイスと統合するために不可欠であり、多くの場合、パフォーマンスが大幅に向上します。
追跡
Trackモードは、YOLO11のオブジェクト検出機能を拡張し、ビデオフレームまたはライブストリーム全体でオブジェクトを追跡します。このモードは、監視システムや自動運転車など、永続的なオブジェクト識別を必要とするアプリケーションに特に役立ちます。Trackモードは、ByteTrackのような高度なアルゴリズムを実装して、オブジェクトが一時的に表示されなくなった場合でも、フレーム間でオブジェクトの同一性を維持します。
ベンチマーク
ベンチマークモードでは、YOLO11のさまざまなエクスポート形式の速度と精度をプロファイルします。このモードでは、モデルサイズ、精度(検出タスクの場合はmAP50-95、分類の場合はaccuracy_top5)、およびONNX、OpenVINO、TensorRTなどのさまざまな形式での推論時間に関する包括的な指標が提供されます。ベンチマークは、デプロイ環境における速度と精度に関する特定の要件に基づいて、最適なエクスポート形式を選択するのに役立ちます。
よくある質問
Ultralytics YOLO11 を使用して、カスタム物体検出モデルをトレーニングするにはどうすればよいですか?
Ultralytics YOLO11でカスタムオブジェクト検出モデルを学習するには、学習モードを使用します。画像と対応するアノテーションファイルを含む、YOLO形式でフォーマットされたデータセットが必要です。次のコマンドを使用して、学習プロセスを開始します。
例
from ultralytics import YOLO
# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640
詳細な手順については、Ultralytics Train Guideを参照してください。
Ultralytics YOLO11 は、モデルの性能を検証するためにどのような指標を使用しますか?
Ultralytics YOLO11は、モデルの性能を評価するために、検証プロセス中にさまざまな指標を使用します。これには以下が含まれます。
- mAP(平均適合率): これは、オブジェクト検出の精度を評価します。
- IOU(Intersection over Union):予測されたバウンディングボックスとグラウンドトゥルースのバウンディングボックスの間の重複を測定します。
- Precision(適合率)とRecall(再現率):適合率は、真陽性検出の総検出陽性に対する比率を測定し、再現率は、真陽性検出の実際の陽性総数に対する比率を測定します。
検証を開始するには、次のコマンドを実行します。
例
from ultralytics import YOLO
# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml
詳細については、Validation Guideを参照してください。
デプロイメント用にYOLO11モデルをエクスポートするにはどうすればよいですか?
Ultralytics YOLO11 は、学習済みモデルを ONNX、TensorRT、CoreML などのさまざまなデプロイメント形式に変換するエクスポート機能を提供します。モデルをエクスポートするには、次の例を使用してください。
例
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx
各エクスポート形式の詳細な手順は、エクスポートガイドに記載されています。
Ultralytics YOLO11におけるベンチマークモードの目的は何ですか?
Ultralytics YOLO11のベンチマークモードは、速度を分析するために使用されます。 精度 ONNX、TensorRT、OpenVINOなどのさまざまなエクスポート形式に対応しています。モデルサイズなどの指標を提供します。 mAP50-95
オブジェクト検出、およびさまざまなハードウェア構成での推論時間について説明し、お客様の展開ニーズに最適な形式を選択するのに役立ちます。
例
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0
詳細については、Benchmark Guideを参照してください。
Ultralytics YOLO11を使用してリアルタイム物体追跡を実行するにはどうすればよいですか?
リアルタイムの物体追跡は、Ultralytics YOLO11のtrackモードを使用することで実現できます。このモードは、物体検出機能を拡張し、ビデオフレームやライブフィード全体で物体を追跡します。追跡を有効にするには、次の例を使用してください。
例
from ultralytics import YOLO
# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
詳細な手順については、Track Guideをご覧ください。