コンテンツにスキップ

姿勢推定

姿勢推定の例

姿勢推定とは、画像内の特定点の位置を特定するタスクであり、通常はキーポイントと呼ばれます。キーポイントは、関節、ランドマーク、その他の特徴的な特徴など、オブジェクトのさまざまな部分を表すことができます。キーポイントの位置は通常、2Dのセットとして表されます。 [x, y] または3D [x, y, visible] 座標。

ポーズ推定モデルの出力は、画像内のオブジェクトのキーポイントを表す一連の点であり、通常は各点の信頼度スコアとともに提供されます。ポーズ推定は、シーン内のオブジェクトの特定の部分と、それらの相互の位置関係を特定する必要がある場合に適しています。



見る: Ultralytics YOLO11 ポーズ推定チュートリアル | リアルタイム物体追跡と人物ポーズ検出

ヒント

YOLO11 ポーズ モデルは、 -pose サフィックス(例:) yolo11n-pose.pt。これらのモデルは、以下でトレーニングされています: COCOキーポイント データセットであり、さまざまな姿勢推定タスクに適しています。

デフォルトのYOLO11ポーズモデルには17個のキーポイントがあり、それぞれが人体​​の異なる部分を表しています。各インデックスと対応する体の関節のマッピングを以下に示します。

  1. 左目
  2. 右目
  3. 左耳
  4. 右耳
  5. 左肩
  6. 右肩
  7. 左肘
  8. 右肘
  9. 左手首
  10. 右手首
  11. 左腰
  12. 右腰
  13. 左膝
  14. 右膝
  15. 左足首
  16. 右足首

モデル

Ultralytics YOLO11の事前学習済みポーズモデルを以下に示します。検出、セグメント、およびポーズモデルはCOCOデータセットで事前学習されており、分類モデルはImageNetデータセットで事前学習されています。

モデルは、最初の使用時に最新のUltralytics リリースから自動的にダウンロードされます。

モデル サイズ
(ピクセル)
mAPpose
50-95
mAPpose
50
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3
  • mAPval 値は、シングルモデルのシングルスケールにおける COCOキーポイント val2017 データセット。
    再現方法 yolo val pose data=coco-pose.yaml device=0
  • 速度 を使用してCOCO val画像で平均化 Amazon EC2 P4d インスタンス。
    再現方法 yolo val pose data=coco-pose.yaml batch=1 device=0|cpu

トレーニング

COCO8-poseデータセットでYOLO11-poseモデルを学習させます。COCO8-poseデータセットは、ポーズ推定モデルのテストとデバッグに最適な小さなサンプルデータセットです。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640

データセット形式

YOLO poseデータセットの形式の詳細は、データセットガイドに記載されています。既存のデータセットを他の形式(COCOなど)からYOLO形式に変換するには、UltralyticsのJSON2YOLOツールを使用してください。

カスタム姿勢推定タスクでは、動物の姿勢推定用のTiger-Pose、ハンドトラッキング用のHand Keypoints、または犬の姿勢分析用のDog-Poseなどの特殊なデータセットを調べることもできます。

Val

学習済み YOLO11n-pose モデルの検証 精度 COCO8-poseデータセットで実行します。引数は必要ありません。 model 学習内容を保持 data および引数をモデル属性として。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
metrics.pose.map  # map50-95(P)
metrics.pose.map50  # map50(P)
metrics.pose.map75  # map75(P)
metrics.pse.maps  # a list contains map50-95(P) of each category
yolo pose val model=yolo11n-pose.pt # val official model
yolo pose val model=path/to/best.pt # val custom model

予測

トレーニング済みのYOLO11n-poseモデルを使用して、画像で予測を実行します。予測モードを使用すると、画像、ビデオ、またはリアルタイムストリームで推論を実行できます。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image

# Access the results
for result in results:
    xy = result.keypoints.xy  # x and y coordinates
    xyn = result.keypoints.xyn  # normalized
    kpts = result.keypoints.data  # x, y, visibility (if available)
yolo pose predict model=yolo11n-pose.pt source='https://ultralytics.com/images/bus.jpg' # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

詳細な predict モードの詳細については、 予測 ページ。

エクスポート

YOLO11n PoseモデルをONNX、CoreMLなどの異なる形式にエクスポートします。これにより、リアルタイム推論のために、さまざまなプラットフォームやデバイスにモデルをデプロイできます。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-pose.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model

利用可能なYOLO11-poseのエクスポート形式は、以下の表に記載されています。以下の方法で、任意の形式にエクスポートできます。 format 引数、つまり format='onnx' または format='engine'エクスポートされたモデルで直接予測または検証できます。例: yolo predict model=yolo11n-pose.onnxエクスポート完了後、モデルの使用例が表示されます。

形式 format 引数 モデル メタデータ 引数
PyTorch - yolo11n-pose.pt -
TorchScript torchscript yolo11n-pose.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n-pose.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n-pose_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n-pose.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n-pose_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n-pose.pb imgsz, batch, device
TF Lite tflite yolo11n-pose.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n-pose_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n-pose_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n-pose_paddle_model/ imgsz, batch, device
MNN mnn yolo11n-pose.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n-pose_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n-pose_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n-pose_rknn_model/ imgsz, batch, name, device

詳細な export 詳細は エクスポート ページ。

よくある質問

Ultralytics YOLO11によるポーズ推定とは何ですか?また、どのように機能しますか?

Ultralytics YOLO11 を使用した姿勢推定では、画像内の特定の点(キーポイントと呼ばれる)を識別します。これらのキーポイントは通常、関節やオブジェクトのその他の重要な特徴を表します。出力には、 [x, y] 各ポイントの座標と信頼度スコア。YOLO11-poseモデルは、このタスク用に特別に設計されており、以下を使用します。 -pose サフィックス(例:) yolo11n-pose.pt。これらのモデルは、次のようなデータセットで事前トレーニングされています: COCOキーポイント は、さまざまなポーズ推定タスクに使用できます。詳細については、 姿勢推定のページ.

カスタムデータセットでYOLO11-poseモデルをトレーニングするにはどうすればよいですか?

カスタムデータセットでYOLO11-poseモデルを学習するには、YAMLファイルで定義された新しいモデル、または事前学習済みのモデルをロードします。その後、指定したデータセットとパラメータを使用して学習プロセスを開始できます。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

トレーニングの詳細については、トレーニングセクションを参照してください。また、カスタム姿勢推定モデルのトレーニングに、コード不要のUltralytics HUBを使用することもできます。

トレーニング済みのYOLO11-poseモデルを検証するにはどうすればよいですか?

YOLO11-pose モデルの検証では、学習中に保持されたものと同じデータセットパラメータを使用して、その精度を評価します。以下に例を示します。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

詳細については、Valセクションをご覧ください。

YOLO11-pose モデルを他の形式にエクスポートできますか?また、その方法を教えてください。

はい、YOLO11-poseモデルをONNX、CoreML、TensorRTなどのさまざまな形式にエクスポートできます。これは、pythonまたはコマンドラインインターフェース(CLI)のいずれかを使用して実行できます。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

詳細については、エクスポートセクションを参照してください。エクスポートされたモデルは、フィットネストラッキング、スポーツ分析、ロボティクスなどのリアルタイムアプリケーション向けにエッジデバイスにデプロイできます。

利用可能な Ultralytics YOLO11-pose モデルと、それらの性能指標は何ですか?

Ultralytics YOLO11は、YOLO11n-pose、YOLO11s-pose、YOLO11m-poseなど、さまざまな事前学習済みのポーズモデルを提供します。これらのモデルは、サイズ、精度(mAP)、および速度が異なります。たとえば、YOLO11n-poseモデルは、mAPpose50-95で50.0、mAPpose50で81.0を達成しています。完全なリストとパフォーマンスの詳細については、モデルセクションをご覧ください。



📅 1年前に作成 ✏️ 3ヶ月前に更新

コメント