コンテンツにスキップ

コマンドラインインターフェース

Ultralyticsコマンドラインインターフェース(CLI)を使用すると、python環境を必要とせずにUltralytics YOLOモデルを簡単に使用できます。CLIは、ターミナルから直接さまざまなタスクを実行することをサポートしています。 yolo コマンドは、カスタマイズやpythonコードを必要としません。



見る: Ultralytics YOLOを使いこなす:CLI

Ultralytics yolo コマンドは次の構文を使用します。

yolo TASK MODE ARGS

場所: - TASK (オプション)は、[detect, segment, classify, pose, obb]のいずれかです - MODE (必須)は、[train, val, predict, export, track, benchmark] のいずれかです - ARGS (オプション)は、任意の数のカスタム arg=value のようなペア imgsz=320 デフォルトをオーバーライドします。

すべての引数については、 構成ガイド または、以下を使用: yolo cfg.

初期学習率を0.01として、10エポックの検出モデルを学習させます:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

画像サイズ320でYouTube動画上の事前トレーニング済みのセグメンテーションモデルを使用して予測します:

yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズが1、画像サイズが640の事前トレーニング済みの検出モデルを検証します。

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

YOLO分類モデルを、画像サイズ224x128でONNX形式にエクスポートします(TASKは不要):

yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128

バージョン、設定の表示、チェックの実行などを行うための特殊コマンドを実行します。

yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg

説明:

  • TASK (オプション)は次のいずれかです [detect, segment, classify, pose, obb]明示的に渡されない場合、YOLOは推測を試みます。 TASK モデルの種類から。
  • MODE (必須)は次のいずれかです [train, val, predict, export, track, benchmark]
  • ARGS (オプション)は、任意の数のカスタム arg=value のようなペア imgsz=320 デフォルトをオーバーライドします。利用可能な完全なリストについては、 ARGSについては、 構成 ページと defaults.yaml.

警告

引数はとして渡す必要があります arg=val イコール記号で区切られたペア = 記号とペアの間をスペースで区切ります。使用しないでください -- 引数のプレフィックスまたはカンマ , 引数間。

  • yolo predict model=yolo11n.pt imgsz=640 conf=0.25   ✅
  • yolo predict model yolo11n.pt imgsz 640 conf 0.25   ❌
  • yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25   ❌

トレーニング

画像サイズ640で、COCO8データセットでYOLOを100エポック学習させます。利用可能な引数の完全なリストについては、構成ページを参照してください。

画像サイズ640で、COCO8上でYOLO11nの学習を100エポック開始します:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

中断されたトレーニングセッションを再開:

yolo detect train resume model=last.pt

Val

検証 精度 COCO8データセットでトレーニングされたモデルの。引数は不要です。 model 学習内容を保持 data および引数をモデル属性として。

公式YOLO11nモデルを検証します。

yolo detect val model=yolo11n.pt

カスタムトレーニングされたモデルを検証します。

yolo detect val model=path/to/best.pt

予測

トレーニング済みのモデルを使用して、画像で予測を実行します。

公式のYOLO11nモデルで予測:

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

カスタムモデルで予測:

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

エクスポート

モデルをONNXやCoreMLなどの異なる形式にエクスポートします。

公式のYOLO11nモデルをONNX形式にエクスポート:

yolo export model=yolo11n.pt format=onnx

カスタムトレーニングされたモデルをONNX形式にエクスポート:

yolo export model=path/to/best.pt format=onnx

利用可能な Ultralytics のエクスポート形式は以下の表にあります。次のものを使用して、任意の形式にエクスポートできます。 format 引数、すなわち、 format='onnx' または format='engine'.

形式 format 引数 モデル メタデータ 引数
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

詳細な export 詳細については エクスポート ページ。

デフォルトの引数のオーバーライド

デフォルトの引数をオーバーライドするには、CLIで次のように渡します arg=value ペア。

ヒント

学習率0.01で10エポックの検出モデルを学習させます:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

画像サイズ320でYouTube動画上の事前トレーニング済みのセグメンテーションモデルを使用して予測します:

yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズ1、画像サイズ640で、事前トレーニング済みの検出モデルを検証します。

yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

デフォルトの構成ファイルのオーバーライド

オーバーライド default.yaml 設定ファイル全体を、新しいファイルを渡すことによって cfg 引数(など)。 cfg=custom.yaml.

これを行うには、まずコピーを作成します。 default.yaml 現在の作業ディレクトリにある yolo copy-cfg コマンドは、以下を作成します: default_copy.yaml file。

このファイルを渡すことで、 cfg=default_copy.yaml 追加の引数とともに、以下のように指定します。 imgsz=320 この例では:

yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320

ソリューションのコマンド

Ultralyticsは、CLIを通じて、一般的なコンピュータビジョンアプリケーション向けのすぐに使用できるソリューションを提供します。これらのソリューションは、オブジェクトのカウント、ワークアウトの監視、キュー管理などの複雑なタスクの実装を簡素化します。

ビデオまたはライブストリーム内のオブジェクトをカウント:

yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path

ポーズモデルを使用してワークアウトエクササイズをモニタリングします:

yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path

# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side

指定されたキューまたは領域内のオブジェクトをカウント:

yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4"                                # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates

Streamlitを使用して、Webブラウザでオブジェクト検出、インスタンスセグメンテーション、または姿勢推定を実行します。

yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model

利用可能なソリューションとそのオプションを表示します:

yolo solutions help

Ultralytics ソリューションの詳細については、ソリューションページをご覧ください。

よくある質問

モデルトレーニングにUltralytics YOLOのコマンドラインインターフェース(CLI)を使用するにはどうすればよいですか?

CLIを使用してモデルを学習させるには、ターミナルで1行のコマンドを実行します。たとえば、学習率が0.01の場合、10エポックの検出モデルを学習させるには、次のように実行します。

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

このコマンドは以下を使用します。 train モードと特定の引数を使用します。利用可能な引数の一覧については、 構成ガイド.

Ultralytics YOLO CLIでどのようなタスクを実行できますか?

Ultralytics YOLO CLIは、検出セグメンテーション分類ポーズ推定、および向きのあるバウンディングボックス検出を含む、さまざまなタスクをサポートしています。次の操作も実行できます。

  • モデルの学習: 実行 yolo train data=<data.yaml> model=<model.pt> epochs=<num>.
  • 予測の実行: 以下を使用 yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>.
  • モデルのエクスポート: 実行 yolo export model=<model.pt> format=<export_format>.
  • ソリューションを使用: 実行 yolo solutions <solution_name> 既製のアプリケーション用。

さまざまな引数を使用して各タスクをカスタマイズします。詳細な構文と例については、TrainPredictExportなどの各セクションを参照してください。

CLIを使用して、トレーニング済みのYOLOモデルの精度を検証するにはどうすればよいですか?

モデルの 精度を使用します。 val モードを参照してください。たとえば、事前トレーニング済みの検出モデルを検証するには、 バッチサイズ 1の損失と640の画像サイズで実行するには:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

このコマンドは、指定されたデータセットでモデルを評価し、mAP適合率再現率などのパフォーマンス指標を提供します。詳細については、Valセクションを参照してください。

CLIを使用して、YOLOモデルをどのような形式でエクスポートできますか?

YOLOモデルは、ONNX、TensorRT、CoreML、TensorFlowなど、さまざまな形式にエクスポートできます。たとえば、モデルをONNX形式にエクスポートするには、次を実行します。

yolo export model=yolo11n.pt format=onnx

exportコマンドは、特定のデプロイ環境に合わせてモデルを最適化するための多数のオプションをサポートしています。利用可能なすべてのエクスポート形式と、その固有のパラメータに関する完全な詳細については、Exportページをご覧ください。

Ultralytics CLIで、構築済みのソリューションを使用するにはどうすればよいですか?

Ultralyticsは、 solutions コマンドを使用します。例えば、動画内のオブジェクトをカウントするには:

yolo solutions count source="path/to/video.mp4"

これらのソリューションは、最小限の構成で済み、一般的なコンピュータビジョンタスクにすぐに機能を提供します。利用可能なすべてのソリューションを表示するには、以下を実行します。 yolo solutions helpを検討してください。各ソリューションには、ニーズに合わせてカスタマイズできる特定のパラメータがあります。



📅 1年前に作成 ✏️ 5ヶ月前に更新

コメント