コンテンツへスキップ

コマンドラインインターフェイス

Ultralytics コマンドラインインターフェースCLI)は、Python 環境を必要とせずにUltralytics YOLO モデルを使用する簡単な方法を提供します。CLI 、ターミナルから直接 yolo コマンドを使えば、カスタマイズもPython コードも必要ない。



見るんだ: MasteringUltralytics YOLO :CLI

Ultralytics yolo コマンドは以下の構文を使う:

yolo TASK MODE ARGS

どこで? - TASK (オプション) は [detect, segment, classify, pose, obb] のいずれか。 - MODE (必須) は [train, val, predict, export, track, benchmark] のいずれか。 - ARGS (オプション) は、任意の数のカスタム arg=value のようなペア。 imgsz=320 デフォルトを上書きする。

すべてのARGSを見る 設定ガイド または yolo cfg.

検出モデルを初期学習率0.01で10エポック学習させる:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

画像サイズ320のYouTube動画に事前学習されたセグメンテーションモデルを使用して予測する:

yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズ1、画像サイズ640で事前学習した検出モデルを検証する:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

YOLO 分類モデルを、画像サイズ224x128のONNX フォーマットにエクスポートします(TASKは必要ありません):

yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128

特別なコマンドを実行して、バージョンや設定を表示したり、チェックを実行したり:

yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg

どこでだ:

  • TASK (オプション) は次のいずれかです。 [detect, segment, classify, pose, obb].明示的に渡されない場合、YOLO は TASK モデルタイプから
  • MODE (必須) は次のいずれかである。 [train, val, predict, export, track, benchmark]
  • ARGS (オプション) は、任意の数のカスタム arg=value のようなペア。 imgsz=320 デフォルトを上書きする。利用可能な ARGSを参照のこと。 構成 ページと defaults.yaml.

警告

引数は arg=val イコールで区切られた = 記号を使用し、ペアの間はスペースで区切る。を使用しないでください。 -- 引数の接頭辞またはコンマ , 引数間の

  • yolo predict model=yolo11n.pt imgsz=640 conf=0.25   ✅
  • yolo predict model yolo11n.pt imgsz 640 conf 0.25   ❌
  • yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25   ❌

電車

COCO8データセットでYOLO 画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。

COCO8でYOLO11nを画像サイズ640で100エポック学習開始:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

中断していたトレーニングを再開する:

yolo detect train resume model=last.pt

バル

を検証する。 精度 COCO8データセットで学習されたモデルの。引数は必要ありません。 model トレーニング data と引数をモデル属性として使用する。

YOLO11nの公式モデルを検証する:

yolo detect val model=yolo11n.pt

カスタム訓練されたモデルを検証する:

yolo detect val model=path/to/best.pt

予測する

学習済みモデルを使用して、画像に対して予測を実行する。

YOLO11nの公式モデルで予測する:

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

カスタムモデルで予測する:

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

輸出

モデルをONNX CoreMLような別のフォーマットにエクスポートします。

YOLO11nの公式モデルをONNX フォーマットにエクスポートする:

yolo export model=yolo11n.pt format=onnx

カスタム訓練されたモデルをONNX 形式でエクスポートします:

yolo export model=path/to/best.pt format=onnx

利用可能なUltralytics エクスポート形式は以下の表のとおりです。任意のフォーマットにエクスポートするには format 引数、すなわち format='onnx' または format='engine'.

フォーマット format 議論 モデル メタデータ 議論
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF ライト tflite yolo11n.tflite imgsz, half, int8, nms, batch, data
TF エッジTPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8, data
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name

詳細を見る export の詳細 輸出 ページを参照されたい。

デフォルト引数のオーバーライド

としてCLI 渡すことで、デフォルトの引数をオーバーライドする。 arg=value 組。

チップ

検出モデルを学習率0.01で10エポック学習させる:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

画像サイズ320のYouTube動画に事前学習されたセグメンテーションモデルを使用して予測する:

yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズ1、画像サイズ640で事前学習した検出モデルを検証する:

yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

デフォルト設定ファイルの上書き

をオーバーライドする。 default.yaml で新しいファイルを渡すことで、設定ファイルを完全に削除できる。 cfg 引数 cfg=custom.yaml.

これを行うには、まず default.yaml を使用して、現在の作業ディレクトリの yolo copy-cfg コマンドで作成される。 default_copy.yaml ファイル。

このファイルを cfg=default_copy.yaml のような追加引数とともに imgsz=320 この例では

yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320

ソリューション・コマンド

Ultralytics 、CLI一般的なコンピュータビジョンアプリケーションのためのすぐに使えるソリューションを提供します。これらのソリューションは、オブジェクトカウント、ワークアウト監視、キュー管理などの複雑なタスクの実装を簡素化します。

ビデオまたはライブストリーム内のオブジェクトをカウントします:

yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path

ポーズモデルを使ってワークアウト・エクササイズをモニターする:

yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path

# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side

指定されたキューまたはリージョン内のオブジェクトをカウントする:

yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4"                                # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates

Streamlitを使って、ウェブブラウザ上でオブジェクト検出、インスタンス分割、姿勢推定を行う:

yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model

利用可能なソリューションとそのオプションをご覧ください:

yolo solutions help

Ultralytics ソリューションの詳細については、ソリューションのページをご覧ください。

よくあるご質問

モデルのトレーニングにUltralytics YOLO コマンドラインインターフェースCLI)を使用する方法を教えてください。

CLI使用してモデルを訓練するには、ターミナルで1行のコマンドを実行する。例えば、検出モデルを学習率0.01で10エポック訓練するには、次のように実行する:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

このコマンドは train モードに特定の引数を指定する。使用可能な引数の一覧は 設定ガイド.

Ultralytics YOLO CLIどのようなタスクを実行できますか?

Ultralytics YOLO CLI 、検出セグメンテーション分類ポーズ推定方向バウンディングボックス検出など、さまざまなタスクをサポートしています。また、次のような操作も可能です:

  • モデルを訓練する:走る yolo train data=<data.yaml> model=<model.pt> epochs=<num>.
  • ラン予想:用途 yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>.
  • モデルのエクスポート:実行 yolo export model=<model.pt> format=<export_format>.
  • ソリューションの利用:走る yolo solutions <solution_name> 既製のアプリケーション用。

各タスクを様々な引数でカスタマイズする。詳細な構文と例については、TrainPredictExportなどの各セクションを参照してください。

CLI使用して、学習したYOLO モデルの精度を検証するにはどうすればよいですか?

モデルの妥当性を検証する 精度を使用する。 val モードである。例えば、事前に訓練された検出モデルを バッチサイズ を1、画像サイズを640にして実行する:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

このコマンドは、指定されたデータセット上でモデルを評価し、mAPprecisionrecallなどのパフォーマンス・メトリクスを提供します。詳細については、Valのセクションを参照してください。

CLI、YOLO モデルをどのようなフォーマットでエクスポートできますか?

YOLO モデルは、ONNX、TensorRT、CoreML、TensorFlow、さまざまな形式にエクスポートできます。例えば、モデルをONNX 形式にエクスポートするには、次のように実行します:

yolo export model=yolo11n.pt format=onnx

エクスポートコマンドは、モデルを特定の展開環境に最適化するための多くのオプションをサポートしています。利用可能なエクスポート形式とそのパラメータについての詳細は、エクスポートのページをご覧ください。

Ultralytics CLIビルド済みのソリューションを使用するにはどうすればよいですか?

Ultralytics 、以下のサービスを通じて、すぐに使えるソリューションを提供します。 solutions コマンドを使います。例えば、ビデオの中のオブジェクトを数える:

yolo solutions count source="path/to/video.mp4"

これらのソリューションは、最小限の構成で、一般的なコンピュータ・ビジョン・タスクに即座に対応する機能を提供します。利用可能なすべてのソリューションを見るには yolo solutions help.各ソリューションには特定のパラメータがあり、ニーズに合わせてカスタマイズすることができます。

📅作成:1年前 ✏️更新 9日前

コメント