コンテンツへスキップ

コマンドラインインターフェイスの使用法

YOLO コマンドラインインターフェイス(CLI)は、Python 環境を必要とせず、シンプルなシングルラインコマンドを可能にする。CLI カスタマイズやPython コードは必要ない。単純にターミナルから yolo コマンドを使用している。



見るんだ: MasteringUltralytics YOLO :CLI

Ultralytics yolo コマンドは以下の構文を使う:

yolo TASK MODE ARGS

Where   TASK (optional) is one of [detect, segment, classify, pose, obb]
        MODE (required) is one of [train, val, predict, export, track, benchmark]
        ARGS (optional) are any number of custom 'arg=value' pairs like 'imgsz=320' that override defaults.
すべてのARGSを見る 設定ガイド または yolo cfg

検出モデルを初期学習率0.01で10エポック学習させる。

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

事前に学習させたセグメンテーションモデルを使って、画像サイズ320のYouTube動画を予測する:

yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズ1、画像サイズ640で事前学習された検出モデル:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

YOLO11n分類モデルを、画像サイズ224×128でONNX 。

yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128

特別なコマンドを実行して、バージョンの確認、設定の表示、チェックの実行などを行う:

yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg

どこでだ:

  • TASK (オプション) は次のいずれかです。 [detect, segment, classify, pose, obb].明示的に渡されない場合、YOLO11 はその値を推測しようとします。 TASK モデルタイプから
  • MODE (必須) は次のいずれかである。 [train, val, predict, export, track, benchmark]
  • ARGS (オプション) は、任意の数のカスタム arg=value のようなペア。 imgsz=320 デフォルトを上書きする。利用可能な ARGS を参照のこと。 構成 ページと defaults.yaml

警告

引数は arg=val ペア、イコールで分割 = 記号とスペースで区切られる ペアの間にを使用しないでください。 -- 引数の接頭辞またはコンマ , 引数間の

  • yolo predict model=yolo11n.pt imgsz=640 conf=0.25   ✅
  • yolo predict model yolo11n.pt imgsz 640 conf 0.25   ❌
  • yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25   ❌

電車

COCO8データセットでYOLO11nを画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。

COCO8でYOLO11nを画像サイズ640で100エポック学習開始。

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

中断していたトレーニングを再開する。

yolo detect train resume model=last.pt

バル

学習済みYOLO11nモデルの検証 精度 をCOCO8データセットに適用した。引数は必要ない。 model トレーニング data と引数をモデル属性として使用する。

YOLO11nの公式モデルを検証する。

yolo detect val model=yolo11n.pt

カスタム訓練されたモデルを検証する。

yolo detect val model=path/to/best.pt

予測する

訓練されたYOLO11nモデルを使って、画像の予測を実行する。

YOLO11nの公式モデルで予測する。

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

カスタムモデルで予測する。

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

輸出

YOLO11nモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。

YOLO11nの公式モデルをONNX 。

yolo export model=yolo11n.pt format=onnx

カスタムトレーニングされたモデルをONNX 形式でエクスポートします。

yolo export model=path/to/best.pt format=onnx

YOLO11で利用可能なエクスポート形式は、以下の表の通りです。どのフォーマットでも format 引数、すなわち format='onnx' または format='engine'.

フォーマットformat 議論モデルメタデータ議論
PyTorch-yolo11n.pt-
TorchScripttorchscriptyolo11n.torchscriptimgsz, optimize, batch
ONNXonnxyolo11n.onnximgsz, half, dynamic, simplify, opset, batch
OpenVINOopenvinoyolo11n_openvino_model/imgsz, half, int8, batch
TensorRTengineyolo11n.engineimgsz, half, dynamic, simplify, workspace, int8, batch
CoreMLcoremlyolo11n.mlpackageimgsz, half, int8, nms, batch
TF SavedModelsaved_modelyolo11n_saved_model/imgsz, keras, int8, batch
TF GraphDefpbyolo11n.pbimgsz, batch
TF ライトtfliteyolo11n.tfliteimgsz, half, int8, batch
TF エッジTPUedgetpuyolo11n_edgetpu.tfliteimgsz
TF.jstfjsyolo11n_web_model/imgsz, half, int8, batch
PaddlePaddlepaddleyolo11n_paddle_model/imgsz, batch
MNNmnnyolo11n.mnnimgsz, batch, int8, half
NCNNncnnyolo11n_ncnn_model/imgsz, half, batch
IMX500imxyolo11n_imx_model/imgsz, int8

詳細を見る export 詳細は 輸出 ページを参照されたい。

デフォルト引数の上書き

デフォルトの引数は、CLI で引数として渡すだけでオーバーライドできる。 arg=value 組。

チップ

の検出モデルを訓練する。 10 epochslearning_rate0.01

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

事前に学習させたセグメンテーションモデルを使って、画像サイズ320のYouTube動画を予測する:

yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

バッチサイズ1と画像サイズ640で事前学習された検出モデルを検証する:

yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

デフォルトの設定ファイルを上書きする

をオーバーライドできます。 default.yaml を持つ新しいファイルを渡すことで、コンフィグファイル全体を変更できる。 cfg すなわち cfg=custom.yaml.

これを行うには、まず default.yaml 現在の作業ディレクトリに yolo copy-cfg コマンドを使用している。

これによって default_copy.yamlとして渡すことができる。 cfg=default_copy.yaml のような追加引数とともに imgsz=320 この例では

yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320

よくあるご質問

Ultralytics YOLO11コマンドラインインターフェイス(CLI)をモデルトレーニングに使用するにはどうすればよいですか?

CLI を使ってYOLO11モデルを訓練するには、ターミナルで単純な1行コマンドを実行すればよい。例えば、検出モデルを学習率0.01で10エポック学習させるには、次のように実行する:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

このコマンドは train モードに特定の引数を指定する。利用可能な引数の一覧は 設定ガイド.

Ultralytics YOLO11CLI では、どのような作業ができますか?

Ultralytics YOLO11CLI は、検出、セグメンテーション、分類、検証、予測、エクスポート、トラッキングなど、さまざまなタスクをサポートしている。例えば

  • モデルを訓練する:走る yolo train data=<data.yaml> model=<model.pt> epochs=<num>.
  • ラン予想:使う yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>.
  • モデルのエクスポート:実行 yolo export model=<model.pt> format=<export_format>.

各タスクは様々な引数でカスタマイズできる。詳細な構文と例については、TrainPredictExportなどの各セクションを参照してください。

CLI 、学習したYOLO11モデルの精度を検証するにはどうすればよいですか?

YOLO11モデルの精度を検証するには val モードである。例えば、事前に訓練された検出モデルを バッチサイズ を1、画像サイズを640にして実行する:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

このコマンドは、指定されたデータセット上でモデルを評価し、パフォーマンス・メトリクスを提供します。詳細については、Valセクションを参照してください。

CLI 、YOLO11モデルをどのようなフォーマットでエクスポートできますか?

YOLO11モデルは、ONNX 、CoreML 、TensorRT など、さまざまなフォーマットにエクスポートできます。例えば、モデルをONNX フォーマットにエクスポートするには、以下を実行する:

yolo export model=yolo11n.pt format=onnx

詳細は輸出のページをご覧ください。

YOLO11CLI コマンドをカスタマイズしてデフォルトの引数を上書きするには?

YOLO11CLI のコマンドでデフォルトの引数を上書きするには、次のように渡します。 arg=value のペアである。例えば、カスタム引数を使ってモデルをトレーニングするには、次のようにする:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

使用可能な引数の全リストとその説明については、コンフィギュレーション・ガイドを参照してください。デフォルト引数の上書き」のセクションにあるように、引数が正しくフォーマットされていることを確認してください。

📅作成 1年前 ✏️更新:1ヶ月前

コメント