姿势估计
姿态估计是一项涉及识别图像中特定点(通常称为关键点)位置的任务。关键点可以代表物体的各个部分,如关节、地标或其他显著特征。关键点的位置通常用一组二维 [x, y]
或 3D [x, y, visible]
坐标
姿态估计模型的输出是一组代表图像中物体关键点的点,通常还包括每个点的置信度分数。当您需要识别场景中物体的特定部分及其相互之间的位置关系时,姿态估计是一个不错的选择。
观看: 利用Ultralytics YOLO 进行姿势估计 . |
观看: 利用Ultralytics HUB 估算姿势。 |
提示
YOLO11 姿势 模型使用 -pose
后缀,即 yolo11n-pose.pt
.这些模型是在 COCO 要点 数据集,适用于各种姿势估计任务。
在YOLO11 的默认姿势模型中,有 17 个关键点,每个关键点代表人体的不同部位。以下是每个索引到相应身体关节的映射:
0: 鼻子 1: 左眼 2: 右眼 3: 左耳 4: 右耳 5: 左肩 6: 右肩 7: 左肘 8: 右肘 9: 左腕 10: 右腕 11: 左髋 12: 右髋 13: 左膝 14: 右膝 15: 左脚踝 16: 右脚踝
机型
YOLO11 这里显示的是经过预训练的姿态模型。Detect、Segment 和 Pose 模型是在COCO数据集上预先训练的,而 Classify 模型则是在ImageNet数据集上预先训练的。
首次使用时,模型会自动从最新的Ultralytics 版本下载。
模型 | 尺寸 (像素) |
50-95 |
mAPpose 50 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- mAPval 数值是在 COCO 关键点2017 数据集。
复制方式yolo val pose data=coco-pose.yaml device=0
- 速度 对 COCO val 图像使用 亚马逊 EC2 P4d 实例
复制方式yolo val pose data=coco-pose.yaml batch=1 device=0|cpu
火车
在 COCO8-pose 数据集上训练YOLO11-pose 模型。
示例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640
数据集格式
YOLO pose数据集格式详见数据集指南。要将现有数据集从其他格式(如 COCO 等)转换为YOLO 格式,请使用JSON2YOLO工具(Ultralytics )。
瓦尔
验证训练有素的 YOLO11n-pose 模型 精确度 COCO8-pose 数据集。无需参数,因为 model
保留其培训 data
和参数作为模型属性。
示例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
预测
使用训练有素的 YOLO11n-pose 模型对图像进行预测。
示例
查看全文 predict
模式的详细信息,请参见 预测 page.
出口
将 YOLO11n Pose 模型导出为不同格式,如ONNX 、CoreML 等。
示例
YOLO11-pose 可用的导出格式如下表所示。您可以使用 format
参数,即 format='onnx'
或 format='engine'
.您可以直接对导出的模型进行预测或验证,即 yolo predict model=yolo11n-pose.onnx
.导出完成后会显示模型的使用示例。
格式 | format 论据 |
模型 | 元数据 | 论据 |
---|---|---|---|---|
PyTorch | - | yolo11n-pose.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-pose.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-pose.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-pose_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-pose.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-pose.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-pose_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-pose.pb |
❌ | imgsz , batch |
TF 轻型 | tflite |
yolo11n-pose.tflite |
✅ | imgsz , half , int8 , batch |
TF 边缘TPU | edgetpu |
yolo11n-pose_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-pose_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-pose_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-pose.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-pose_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-pose_imx_model/ |
✅ | imgsz , int8 |
查看全文 export
中的详细信息 出口 page.
常见问题
什么是利用Ultralytics YOLO11 进行姿势估计,它是如何工作的?
利用Ultralytics YOLO11 进行姿态估算,需要识别图像中的特定点(称为关键点)。这些关键点通常代表物体的关节或其他重要特征。输出包括 [x, y]
每个点的坐标和置信度分数。YOLO11-pose 模型是专门为这项任务设计的,它使用 -pose
后缀,如 yolo11n-pose.pt
.这些模型是在诸如 COCO 要点 可用于各种姿势估计任务。更多信息,请访问 姿势估计页面.
如何在自定义数据集上训练YOLO11-pose 模型?
在自定义数据集上训练YOLO11-pose 模型需要加载一个模型,可以是由 YAML 文件定义的新模型,也可以是预先训练好的模型。然后,您就可以使用指定的数据集和参数开始训练过程。
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
有关培训的全面详情,请参阅培训部分。
如何验证训练有素的YOLO11-pose 模型?
YOLO11-pose 模型的验证包括使用训练时保留的相同数据集参数评估其准确性。下面是一个例子:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
更多信息,请访问Val 部分。
能否将YOLO11-pose 模型导出为其他格式,如何导出?
是的,您可以将YOLO11-pose 模型导出为各种格式,如ONNX,CoreML,TensorRT 等。您可以使用Python 或命令行界面 (CLI) 进行导出。
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
有关详细信息,请参阅 "导出 "部分。
现有的Ultralytics YOLO11 -pose 模型及其性能指标是什么?
Ultralytics YOLO11 提供各种预训练姿势模型,如 YOLO11n-pose、YOLO11s-pose、YOLO11m-pose 等。这些模型在大小、准确度(mAP)和速度上各不相同。例如,YOLO11n-pose 型号的mAPpose50-95为 50.4,mAPpose50为 80.1。有关完整列表和性能详情,请访问型号部分。