コマンドラインインターフェース
Ultralyticsコマンドラインインターフェース(CLI)を使用すると、python環境を必要とせずにUltralytics YOLOモデルを簡単に使用できます。CLIは、ターミナルから直接さまざまなタスクを実行することをサポートしています。 yolo
コマンドは、カスタマイズやpythonコードを必要としません。
見る: Ultralytics YOLOを使いこなす:CLI
例
Ultralytics yolo
コマンドは次の構文を使用します。
yolo TASK MODE ARGS
場所:
- TASK
(オプション)は、[detect, segment, classify, pose, obb]のいずれかです
- MODE
(必須)は、[train, val, predict, export, track, benchmark] のいずれかです
- ARGS
(オプション)は、任意の数のカスタム arg=value
のようなペア imgsz=320
デフォルトをオーバーライドします。
すべての引数については、 構成ガイド または、以下を使用: yolo cfg
.
画像サイズ320でYouTube動画上の事前トレーニング済みのセグメンテーションモデルを使用して予測します:
yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
バッチサイズが1、画像サイズが640の事前トレーニング済みの検出モデルを検証します。
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
YOLO分類モデルを、画像サイズ224x128でONNX形式にエクスポートします(TASKは不要):
yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128
バージョン、設定の表示、チェックの実行などを行うための特殊コマンドを実行します。
yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg
説明:
TASK
(オプション)は次のいずれかです[detect, segment, classify, pose, obb]
明示的に渡されない場合、YOLOは推測を試みます。TASK
モデルの種類から。MODE
(必須)は次のいずれかです[train, val, predict, export, track, benchmark]
ARGS
(オプション)は、任意の数のカスタムarg=value
のようなペアimgsz=320
デフォルトをオーバーライドします。利用可能な完全なリストについては、ARGS
については、 構成 ページとdefaults.yaml
.
警告
引数はとして渡す必要があります arg=val
イコール記号で区切られたペア =
記号とペアの間をスペースで区切ります。使用しないでください --
引数のプレフィックスまたはカンマ ,
引数間。
yolo predict model=yolo11n.pt imgsz=640 conf=0.25
✅yolo predict model yolo11n.pt imgsz 640 conf 0.25
❌yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25
❌
トレーニング
画像サイズ640で、COCO8データセットでYOLOを100エポック学習させます。利用可能な引数の完全なリストについては、構成ページを参照してください。
例
画像サイズ640で、COCO8上でYOLO11nの学習を100エポック開始します:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
中断されたトレーニングセッションを再開:
yolo detect train resume model=last.pt
Val
検証 精度 COCO8データセットでトレーニングされたモデルの。引数は不要です。 model
学習内容を保持 data
および引数をモデル属性として。
例
公式YOLO11nモデルを検証します。
yolo detect val model=yolo11n.pt
カスタムトレーニングされたモデルを検証します。
yolo detect val model=path/to/best.pt
予測
トレーニング済みのモデルを使用して、画像で予測を実行します。
例
公式のYOLO11nモデルで予測:
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'
カスタムモデルで予測:
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'
エクスポート
モデルをONNXやCoreMLなどの異なる形式にエクスポートします。
例
公式のYOLO11nモデルをONNX形式にエクスポート:
yolo export model=yolo11n.pt format=onnx
カスタムトレーニングされたモデルをONNX形式にエクスポート:
yolo export model=path/to/best.pt format=onnx
利用可能な Ultralytics のエクスポート形式は以下の表にあります。次のものを使用して、任意の形式にエクスポートできます。 format
引数、すなわち、 format='onnx'
または format='engine'
.
形式 | format 引数 |
モデル | メタデータ | 引数 |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , half , dynamic , optimize , nms , batch , device |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name , device |
詳細な export
詳細については エクスポート ページ。
デフォルトの引数のオーバーライド
デフォルトの引数をオーバーライドするには、CLIで次のように渡します arg=value
ペア。
ヒント
学習率0.01で10エポックの検出モデルを学習させます:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
画像サイズ320でYouTube動画上の事前トレーニング済みのセグメンテーションモデルを使用して予測します:
yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
バッチサイズ1、画像サイズ640で、事前トレーニング済みの検出モデルを検証します。
yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
デフォルトの構成ファイルのオーバーライド
オーバーライド default.yaml
設定ファイル全体を、新しいファイルを渡すことによって cfg
引数(など)。 cfg=custom.yaml
.
これを行うには、まずコピーを作成します。 default.yaml
現在の作業ディレクトリにある yolo copy-cfg
コマンドは、以下を作成します: default_copy.yaml
file。
このファイルを渡すことで、 cfg=default_copy.yaml
追加の引数とともに、以下のように指定します。 imgsz=320
この例では:
例
yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320
ソリューションのコマンド
Ultralyticsは、CLIを通じて、一般的なコンピュータビジョンアプリケーション向けのすぐに使用できるソリューションを提供します。これらのソリューションは、オブジェクトのカウント、ワークアウトの監視、キュー管理などの複雑なタスクの実装を簡素化します。
例
ビデオまたはライブストリーム内のオブジェクトをカウント:
yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path
ポーズモデルを使用してワークアウトエクササイズをモニタリングします:
yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path
# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side
指定されたキューまたは領域内のオブジェクトをカウント:
yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4" # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates
Streamlitを使用して、Webブラウザでオブジェクト検出、インスタンスセグメンテーション、または姿勢推定を実行します。
yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model
利用可能なソリューションとそのオプションを表示します:
yolo solutions help
Ultralytics ソリューションの詳細については、ソリューションページをご覧ください。
よくある質問
モデルトレーニングにUltralytics YOLOのコマンドラインインターフェース(CLI)を使用するにはどうすればよいですか?
CLIを使用してモデルを学習させるには、ターミナルで1行のコマンドを実行します。たとえば、学習率が0.01の場合、10エポックの検出モデルを学習させるには、次のように実行します。
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
このコマンドは以下を使用します。 train
モードと特定の引数を使用します。利用可能な引数の一覧については、 構成ガイド.
Ultralytics YOLO CLIでどのようなタスクを実行できますか?
Ultralytics YOLO CLIは、検出、セグメンテーション、分類、ポーズ推定、および向きのあるバウンディングボックス検出を含む、さまざまなタスクをサポートしています。次の操作も実行できます。
- モデルの学習: 実行
yolo train data=<data.yaml> model=<model.pt> epochs=<num>
. - 予測の実行: 以下を使用
yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>
. - モデルのエクスポート: 実行
yolo export model=<model.pt> format=<export_format>
. - ソリューションを使用: 実行
yolo solutions <solution_name>
既製のアプリケーション用。
さまざまな引数を使用して各タスクをカスタマイズします。詳細な構文と例については、Train、Predict、Exportなどの各セクションを参照してください。
CLIを使用して、トレーニング済みのYOLOモデルの精度を検証するにはどうすればよいですか?
モデルの 精度を使用します。 val
モードを参照してください。たとえば、事前トレーニング済みの検出モデルを検証するには、 バッチサイズ 1の損失と640の画像サイズで実行するには:
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
このコマンドは、指定されたデータセットでモデルを評価し、mAP、適合率、再現率などのパフォーマンス指標を提供します。詳細については、Valセクションを参照してください。
CLIを使用して、YOLOモデルをどのような形式でエクスポートできますか?
YOLOモデルは、ONNX、TensorRT、CoreML、TensorFlowなど、さまざまな形式にエクスポートできます。たとえば、モデルをONNX形式にエクスポートするには、次を実行します。
yolo export model=yolo11n.pt format=onnx
exportコマンドは、特定のデプロイ環境に合わせてモデルを最適化するための多数のオプションをサポートしています。利用可能なすべてのエクスポート形式と、その固有のパラメータに関する完全な詳細については、Exportページをご覧ください。
Ultralytics CLIで、構築済みのソリューションを使用するにはどうすればよいですか?
Ultralyticsは、 solutions
コマンドを使用します。例えば、動画内のオブジェクトをカウントするには:
yolo solutions count source="path/to/video.mp4"
これらのソリューションは、最小限の構成で済み、一般的なコンピュータビジョンタスクにすぐに機能を提供します。利用可能なすべてのソリューションを表示するには、以下を実行します。 yolo solutions help
を検討してください。各ソリューションには、ニーズに合わせてカスタマイズできる特定のパラメータがあります。