跳至内容

姿势估计

姿势估计示例

姿态估计是一项涉及识别图像中特定点(通常称为关键点)位置的任务。关键点可以代表物体的各个部分,如关节、地标或其他显著特征。关键点的位置通常用一组二维 [x, y] 或 3D [x, y, visible] 坐标

姿态估计模型的输出是一组代表图像中物体关键点的点,通常还包括每个点的置信度分数。当您需要识别场景中物体的特定部分及其相互之间的位置关系时,姿态估计是一个不错的选择。



观看: Ultralytics YOLO11 姿势估计教程 | 实时物体跟踪和人体姿势检测

提示

YOLO11 姿势 模型使用 -pose 后缀,即 yolo11n-pose.pt.这些模型是在 COCO 要点 数据集,适用于各种姿势估计任务。

在YOLO11 的默认姿势模型中,有 17 个关键点,每个关键点代表人体的不同部位。以下是每个索引到相应身体关节的映射:

0: 鼻子 1: 左眼 2: 右眼 3: 左耳 4: 右耳 5: 左肩 6: 右肩 7: 左肘 8: 右肘 9: 左腕 10: 右腕 11: 左髋 12: 右髋 13: 左膝 14: 右膝 15: 左脚踝 16: 右脚踝

机型

YOLO11 这里显示的是经过预训练的姿态模型。Detect、Segment 和 Pose 模型是在COCO数据集上预先训练的,而 Classify 模型则是在ImageNet数据集上预先训练的。

首次使用时,模型会自动从最新的Ultralytics 版本下载。

模型 尺寸
(像素)

50-95
mAPpose
50
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3
  • mAPval 数值是在 COCO 关键点2017 数据集。
    复制方式 yolo val pose data=coco-pose.yaml device=0
  • 速度 对 COCO val 图像使用 亚马逊 EC2 P4d 实例
    复制方式 yolo val pose data=coco-pose.yaml batch=1 device=0|cpu

火车

在 COCO8-pose 数据集上训练YOLO11-pose 模型。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640

数据集格式

YOLO pose数据集格式详见数据集指南。要将现有数据集从其他格式(如 COCO 等)转换为YOLO 格式,请使用JSON2YOLO工具(Ultralytics )。

瓦尔

验证训练有素的 YOLO11n-pose 模型 精确度 COCO8-pose 数据集。无需参数,因为 model 保留其培训 data 和参数作为模型属性。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolo11n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

预测

使用训练有素的 YOLO11n-pose 模型对图像进行预测。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolo11n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

查看全文 predict 模式的详细信息,请参见 预测 page.

出口

将 YOLO11n Pose 模型导出为不同格式,如ONNX 、CoreML 等。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

YOLO11-pose 可用的导出格式如下表所示。您可以使用 format 参数,即 format='onnx'format='engine'.您可以直接对导出的模型进行预测或验证,即 yolo predict model=yolo11n-pose.onnx.导出完成后会显示模型的使用示例。

格式 format 论据 模型 元数据 论据
PyTorch - yolo11n-pose.pt -
TorchScript torchscript yolo11n-pose.torchscript imgsz, optimize, batch
ONNX onnx yolo11n-pose.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n-pose_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-pose_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n-pose.pb imgsz, batch
TF 轻型 tflite yolo11n-pose.tflite imgsz, half, int8, batch
TF 边缘TPU edgetpu yolo11n-pose_edgetpu.tflite imgsz
TF.js tfjs yolo11n-pose_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n-pose_paddle_model/ imgsz, batch
MNN mnn yolo11n-pose.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-pose_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-pose_imx_model/ imgsz, int8

查看全文 export 中的详细信息 出口 page.

常见问题

什么是利用Ultralytics YOLO11 进行姿势估计,它是如何工作的?

利用Ultralytics YOLO11 进行姿态估算,需要识别图像中的特定点(称为关键点)。这些关键点通常代表物体的关节或其他重要特征。输出包括 [x, y] 每个点的坐标和置信度分数。YOLO11-pose 模型是专门为这项任务设计的,它使用 -pose 后缀,如 yolo11n-pose.pt.这些模型是在诸如 COCO 要点 可用于各种姿势估计任务。更多信息,请访问 姿势估计页面.

如何在自定义数据集上训练YOLO11-pose 模型?

在自定义数据集上训练YOLO11-pose 模型需要加载一个模型,可以是由 YAML 文件定义的新模型,也可以是预先训练好的模型。然后,您就可以使用指定的数据集和参数开始训练过程。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

有关培训的全面详情,请参阅培训部分

如何验证训练有素的YOLO11-pose 模型?

YOLO11-pose 模型的验证包括使用训练时保留的相同数据集参数评估其准确性。下面是一个例子:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

更多信息,请访问Val 部分

能否将YOLO11-pose 模型导出为其他格式,如何导出?

是的,您可以将YOLO11-pose 模型导出为各种格式,如ONNX,CoreML,TensorRT 等。您可以使用Python 或命令行界面 (CLI) 进行导出。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

有关详细信息,请参阅 "导出 "部分

现有的Ultralytics YOLO11 -pose 模型及其性能指标是什么?

Ultralytics YOLO11 提供各种预训练姿势模型,如 YOLO11n-pose、YOLO11s-pose、YOLO11m-pose 等。这些模型在大小、准确度(mAP)和速度上各不相同。例如,YOLO11n-pose 型号的mAPpose50-95为 50.4,mAPpose50为 80.1。有关完整列表和性能详情,请访问型号部分

📅创建于 1 年前 ✏️已更新 13 天前

评论