ポーズ推定
姿勢推定は、通常キーポイントと呼ばれる画像内の特定の点の位置を特定するタスクである。キーポイントは、関節、ランドマーク、または他の特徴的な特徴など、オブジェクトのさまざまな部分を表すことができます。キーポイントの位置は、通常、2次元の [x, y]
または3D [x, y, visible]
の座標である。
ポーズ推定モデルの出力は、画像内のオブジェクトのキーポイントを表す点の集合であり、通常は各点の信頼度スコアとともに出力される。ポーズ推定は、シーン内のオブジェクトの特定の部分と、それらの位置関係を特定する必要がある場合に適しています。
見るんだ: Ultralytics YOLO11 姿勢推定チュートリアル|リアルタイム物体追跡と人物姿勢検出
チップ
YOLO11 ポーズ モデルは -pose
サフィックス、すなわち yolo11n-pose.pt
.これらのモデルは COCOのキーポイント データセットであり、様々な姿勢推定タスクに適している。
デフォルトのYOLO11 ポーズモデルでは、17個のキーポイントがあり、それぞれが人体の異なる部位を表しています。以下は、各インデックスの、それぞれの身体関節へのマッピングです:
0: 鼻 1: 左目 2: 右目 3: 左耳 4: 右耳 5: 左肩 6: 右肩 7: 左肘 8: 右肘 9: 左手首 10: 右手首 11: 左股関節 12: 右股関節 13: 左膝 14: 右膝 15: 左足首 16: 右足首
モデル
YOLO11 ここでは、事前に訓練されたPoseモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されています。
モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。
モデル | サイズ (ピクセル) |
mAPpose 50-95 |
mAPpose 50 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-ポーズ | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11sポーズ | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11mポーズ | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-ポーズ | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11xポーズ | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCOキーポイントval2017 データセット。
複製するyolo val pose data=coco-pose.yaml device=0
- スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
複製するyolo val pose data=coco-pose.yaml batch=1 device=0|cpu
電車
COCO8-pose データセットでYOLO11-pose モデルをトレーニングする。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640
データセット形式
YOLO ポーズデータセットの形式は、データセットガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。
バル
学習済みYOLO11n-poseモデルの検証 精度 をCOCO8-poseデータセットに適用した。引数は必要ない。 model
トレーニング data
と引数をモデル属性として使用する。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
予測する
訓練されたYOLO11n-poseモデルを使って、画像の予測を実行する。
例
詳細を見る predict
モードの詳細は 予測する ページを参照されたい。
輸出
YOLO11nポーズモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。
例
利用可能なYOLO11-pose エクスポートフォーマットは以下の表の通りです。どのフォーマットでも format
引数、すなわち format='onnx'
または format='engine'
.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n-pose.onnx
.使用例は、エクスポート完了後に表示されます。
フォーマット | format 議論 |
モデル | メタデータ | 議論 |
---|---|---|---|---|
PyTorch | - | yolo11n-pose.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-pose.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-pose.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-pose_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-pose.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-pose.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-pose_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-pose.pb |
❌ | imgsz , batch |
TF ライト | tflite |
yolo11n-pose.tflite |
✅ | imgsz , half , int8 , batch |
TF エッジTPU | edgetpu |
yolo11n-pose_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-pose_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-pose_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-pose.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-pose_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-pose_imx_model/ |
✅ | imgsz , int8 |
詳細を見る export
詳細は 輸出 ページを参照されたい。
よくあるご質問
Ultralytics YOLO11 、どのように機能するのか?
Ultralytics YOLO11 による姿勢推定では、画像内のキーポイントと呼ばれる特定の点を特定する。これらのキーポイントは、通常、オブジェクトの関節やその他の重要な特徴を表しています。出力には [x, y]
各ポイントの座標と信頼スコア。YOLO11-目的モデルはこのタスクのために特別に設計されており -pose
のような接尾辞をつける。 yolo11n-pose.pt
.これらのモデルは、次のようなデータセットで事前に訓練されています。 COCOのキーポイント で、様々なポーズ推定タスクに使用できる。詳しくは ポーズ推定ページ.
YOLO11-pose モデルをカスタムデータセットでトレーニングするには?
カスタムデータセットでYOLO11-pose モデルをトレーニングするには、YAMLファイルで定義された新しいモデルか、事前にトレーニングされたモデルをロードします。その後、指定したデータセットとパラメータを使用してトレーニングプロセスを開始することができます。
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
トレーニングの包括的な詳細については、「トレーニング」の項を参照のこと。
訓練されたYOLO11-pose モデルを検証するには?
YOLO11-pose モデルの検証では、トレーニング時に保持された同じデータセットのパラメーターを使用して、その精度を評価する。以下はその例である:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
詳しくはバル・セクションをご覧ください。
YOLO11-pose モデルを他のフォーマットにエクスポートできますか?
はい、YOLO11-pose モデルを、ONNX 、CoreML 、TensorRT など、さまざまな形式にエクスポートできます。これは、Python またはコマンドラインインターフェイス (CLI) のいずれかを使用して行うことができます。
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
詳しくはエクスポートの項を参照。
Ultralytics YOLO11 -pose モデルとそのパフォーマンス指標は?
Ultralytics YOLO11 は、YOLO11n-pose、YOLO11s-pose、YOLO11m-poseなど、さまざまな事前学習済みポーズモデルを提供しています。これらのモデルは、サイズ、精度(mAP)、速度が異なります。例えば、YOLO11n-poseモデルは、mAPpose50-95で50.4、mAPpose50で80.1を達成している。完全なリストと性能の詳細については、モデルセクションをご覧ください。