跳至内容

姿势估计

姿势估计示例

姿态估计是一项涉及识别图像中特定点(通常称为关键点)位置的任务。关键点可以代表物体的各个部分,如关节、地标或其他显著特征。关键点的位置通常用一组二维 [x, y] 或 3D [x, y, visible] 坐标

姿态估计模型的输出是一组代表图像中物体关键点的点,通常还包括每个点的置信度分数。当您需要识别场景中物体的特定部分及其相互之间的位置关系时,姿势估计是一个不错的选择。


观看: 利用Ultralytics YOLOv8 进行姿势估计 .

观看: 利用Ultralytics HUB 估算姿势。

提示

YOLOv8 姿势 模型使用 -pose 后缀,即 yolov8n-pose.pt.这些模型是在 COCO 要点 数据集,适用于各种姿势估计任务。

在YOLOv8 的默认姿势模型中,有 17 个关键点,每个关键点代表人体的不同部位。以下是每个索引到相应身体关节的映射:

0: 鼻子 1: 左眼 2: 右眼 3: 左耳 4: 右耳 5: 左肩 6: 右肩 7: 左肘 8: 右肘 9: 左腕 10: 右腕 11: 左髋 12: 右髋 13: 左膝 14: 右膝 15: 左脚踝 16: 右脚踝

机型

YOLOv8 这里显示的是经过预训练的姿态模型。Detect、Segment 和 Pose 模型是在COCO数据集上预先训练的,而 Classify 模型则是在ImageNet数据集上预先训练的。

首次使用时,模型会自动从最新的Ultralytics 版本下载。

模型 尺寸
(像素)

50-95
mAPpose
50
速度
CPU ONNX
(毫秒)
速度
A100 TensorRT
(毫秒)
params
(M)
FLOPs
(B)
YOLOv8n-姿势 640 50.4 80.1 131.8 1.18 3.3 9.2
YOLOv8s-姿势 640 60.0 86.2 233.2 1.42 11.6 30.2
YOLOv8m-姿势 640 65.0 88.8 456.3 2.00 26.4 81.0
YOLOv8l-姿势 640 67.6 90.0 784.5 2.59 44.4 168.6
YOLOv8x-姿势 640 69.2 90.2 1607.1 3.73 69.4 263.2
YOLOv8x-pose-p6 1280 71.6 91.2 4088.7 10.04 99.1 1066.4
  • mAPval 数值是在 COCO 关键点2017 数据集。
    复制方式 yolo val pose data=coco-pose.yaml device=0
  • 速度 对 COCO val 图像使用 亚马逊 EC2 P4d 实例
    复制方式 yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu

火车

在 COCO128-pose 数据集上训练YOLOv8-pose 模型。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-pose.yaml").load("yolov8n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

数据集格式

YOLO pose数据集格式详见数据集指南。要将现有数据集从其他格式(如 COCO 等)转换为YOLO 格式,请使用JSON2YOLO工具(Ultralytics )。

瓦尔

在 COCO128-pose 数据集上验证训练有素的YOLOv8n-pose 模型的准确性。无需传递参数,因为 model 保留其培训 data 和参数作为模型属性。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolov8n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

预测

使用训练有素的YOLOv8n-pose 模型对图像进行预测。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

查看全文 predict 模式的详细信息,请参见 预测 page.

出口

将YOLOv8n Pose 模型导出为不同格式,如ONNX,CoreML 等。

示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

YOLOv8-pose 可用的导出格式如下表所示。您可以使用 format 参数,即 format='onnx'format='engine'.您可以直接对导出的模型进行预测或验证,即 yolo predict model=yolov8n-pose.onnx.导出完成后会显示模型的使用示例。

格式 format 论据 模型 元数据 论据
PyTorch - yolov8n-pose.pt -
TorchScript torchscript yolov8n-pose.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-pose.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-pose_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-pose_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-pose.pb imgsz, batch
TF 轻型 tflite yolov8n-pose.tflite imgsz, half, int8, batch
TF 边缘TPU edgetpu yolov8n-pose_edgetpu.tflite imgsz
TF.js tfjs yolov8n-pose_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-pose_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-pose_ncnn_model/ imgsz, half, batch

查看全文 export 中的详细信息 出口 page.

常见问题

什么是利用Ultralytics YOLOv8 进行姿势估计,它是如何工作的?

利用Ultralytics YOLOv8 进行姿态估算,需要识别图像中的特定点(称为关键点)。这些关键点通常代表物体的关节或其他重要特征。输出包括 [x, y] 每个点的坐标和置信度分数。YOLOv8-pose 模型是专门为这项任务设计的,它使用 -pose 后缀,如 yolov8n-pose.pt.这些模型是在诸如 COCO 要点 可用于各种姿势估计任务。更多信息,请访问 姿势估计页面.

如何在自定义数据集上训练YOLOv8-pose 模型?

在自定义数据集上训练YOLOv8-pose 模型需要加载一个模型,可以是由 YAML 文件定义的新模型,也可以是预先训练好的模型。然后,您就可以使用指定的数据集和参数开始训练过程。

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

有关培训的全面详情,请参阅培训部分

如何验证训练有素的YOLOv8-pose 模型?

YOLOv8-pose 模型的验证包括使用训练时保留的相同数据集参数评估其准确性。下面是一个例子:

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

更多信息,请访问Val 部分

能否将YOLOv8-pose 模型导出为其他格式,如何导出?

是的,您可以将YOLOv8-pose 模型导出为各种格式,如ONNX,CoreML,TensorRT 等。您可以使用Python 或命令行界面 (CLI) 进行导出。

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

有关详细信息,请参阅 "导出 "部分

现有的Ultralytics YOLOv8 -pose 模型及其性能指标是什么?

Ultralytics YOLOv8 提供各种预训练姿势模型,如YOLOv8n-pose、YOLOv8s-pose、YOLOv8m-pose 等。这些模型在大小、准确度(mAP)和速度上各不相同。例如,YOLOv8n-pose 模型的mAPpose50-95为 50.4,mAPpose50为 80.1。有关完整列表和性能详情,请访问型号部分



创建于 2023-11-12,更新于 2024-07-08
作者:k-2feng@hotmail.com(1),glenn-jocher(20),Burhan-Q(4),RizwanMunawar(1),AyushExel(1),Laughing-q(1)

评论