Saltar al contenido

Estimación de la pose

Ejemplos de estimación de la pose

La estimación de la pose es una tarea que consiste en identificar la ubicación de puntos específicos en una imagen, normalmente denominados puntos clave. Los puntos clave pueden representar diversas partes del objeto, como articulaciones, puntos de referencia u otros rasgos distintivos. Las ubicaciones de los puntos clave suelen representarse como un conjunto de 2D [x, y] o 3D [x, y, visible] coordenadas.

La salida de un modelo de estimación de pose es un conjunto de puntos que representan los puntos clave de un objeto en la imagen, normalmente junto con las puntuaciones de confianza de cada punto. La estimación de la pose es una buena opción cuando necesitas identificar partes concretas de un objeto en una escena, y su ubicación en relación con las demás.


Observa: Estimación de la pose con Ultralytics YOLOv8 .

Observa: Estimación de la pose con Ultralytics HUB.

Consejo

YOLOv8 posa Los modelos utilizan la -pose sufijo, es decir yolov8n-pose.pt. Estos modelos se entrenan con la Puntos clave COCO y son adecuados para diversas tareas de estimación de la postura.

En el modelo de pose por defecto de YOLOv8 , hay 17 puntos clave, cada uno de los cuales representa una parte diferente del cuerpo humano. He aquí la correspondencia de cada índice con su respectiva articulación corporal:

0: Nariz 1: Ojo izquierdo 2: Ojo derecho 3: Oreja izquierda 4: Oreja derecha 5: Hombro izquierdo 6: Hombro derecho 7: Codo izquierdo 8: Codo derecho 9: Muñeca izquierda 10: Muñeca derecha 11: Cadera izquierda 12: Cadera derecha 13: Rodilla izquierda 14: Rodilla derecha 15: Tobillo izquierdo 16: Tobillo derecho

Modelos

YOLOv8 Aquí se muestran los modelos Pose preentrenados. Los modelos Detectar, Segmentar y Pose están preentrenados en el conjunto de datos COCO, mientras que los modelos Clasificar están preentrenados en el conjunto de datos ImageNet.

Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.

Modelo tamaño
(píxeles)
mAPpose
50-95
mAPpose
50
Velocidad
CPU ONNX
(ms)
Velocidad
A100 TensorRT
(ms)
parámetros
(M)
FLOPs
(B)
YOLOv8n-pose 640 50.4 80.1 131.8 1.18 3.3 9.2
YOLOv8s-pose 640 60.0 86.2 233.2 1.42 11.6 30.2
YOLOv8m-pose 640 65.0 88.8 456.3 2.00 26.4 81.0
YOLOv8l-pose 640 67.6 90.0 784.5 2.59 44.4 168.6
YOLOv8x-pose 640 69.2 90.2 1607.1 3.73 69.4 263.2
YOLOv8x-pose-p6 1280 71.6 91.2 4088.7 10.04 99.1 1066.4
  • mAPval son para un modelo de escala única en COCO Puntos clave val2017 conjunto de datos.
    Reproducir por yolo val pose data=coco-pose.yaml device=0
  • Velocidad promediada sobre las imágenes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu

Tren

Entrena un modelo YOLOv8-pose en el conjunto de datos COCO128-pose.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-pose.yaml").load("yolov8n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

Formato del conjunto de datos

YOLO El formato de los conjuntos de datos se puede consultar en detalle en la Guía de conjuntos de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.

Val

Valida la precisión del modelo entrenado YOLOv8n-pose en el conjunto de datos COCO128-pose. No es necesario pasar ningún argumento como model conserva su formación data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolov8n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

Predecir

Utiliza un modelo entrenado YOLOv8n-pose para realizar predicciones sobre las imágenes.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Ver todo predict detalles del modo en el Predecir página.

Exportar

Exporta un modelo YOLOv8n Pose a un formato diferente como ONNX, CoreML, etc.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Los formatos de exportación disponibles de YOLOv8-pose están en la tabla siguiente. Puedes exportar a cualquier formato utilizando el botón format argumento, es decir format='onnx' o format='engine'. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolov8n-pose.onnx. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportación.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolov8n-pose.pt -
TorchScript torchscript yolov8n-pose.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-pose.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-pose_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-pose_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-pose.pb imgsz, batch
TF Lite tflite yolov8n-pose.tflite imgsz, half, int8, batch
TF Arista TPU edgetpu yolov8n-pose_edgetpu.tflite imgsz
TF.js tfjs yolov8n-pose_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-pose_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-pose_ncnn_model/ imgsz, half, batch

Ver todo export detalles en el Exportar página.

PREGUNTAS FRECUENTES

¿Qué es la Estimación de la Pose con Ultralytics YOLOv8 y cómo funciona?

La estimación de la pose con Ultralytics YOLOv8 implica identificar puntos específicos, conocidos como puntos clave, en una imagen. Estos puntos clave suelen representar articulaciones u otras características importantes del objeto. El resultado incluye la [x, y] coordenadas y puntuaciones de confianza de cada punto. YOLOv8 Los modelos -pose están diseñados específicamente para esta tarea y utilizan la -pose sufijo, como yolov8n-pose.pt. Estos modelos están preentrenados en conjuntos de datos como Puntos clave COCO y puede utilizarse para diversas tareas de estimación de la pose. Para más información, visita la página Página de estimación de la pose.

¿Cómo puedo entrenar un modelo YOLOv8-pose en un conjunto de datos personalizado?

Entrenar un modelo YOLOv8-pose en un conjunto de datos personalizado implica cargar un modelo, ya sea un nuevo modelo definido por un archivo YAML o un modelo preentrenado. A continuación, puedes iniciar el proceso de entrenamiento utilizando el conjunto de datos y los parámetros que hayas especificado.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

Para más detalles sobre la formación, consulta la Sección de Formación.

¿Cómo puedo validar un modelo entrenado de YOLOv8-pose?

La validación de un modelo YOLOv8-pose consiste en evaluar su precisión utilizando los mismos parámetros del conjunto de datos conservados durante el entrenamiento. He aquí un ejemplo:

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

Para más información, visita la Sección Val.

¿Puedo exportar un modelo YOLOv8-pose a otros formatos, y cómo?

Sí, puedes exportar un modelo YOLOv8-pose a varios formatos como ONNX, CoreML, TensorRT, y más. Puedes hacerlo utilizando Python o la interfaz de línea de comandos (CLI).

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

Consulta la sección Exportación para más detalles.

¿Cuáles son los modelos disponibles de Ultralytics YOLOv8 -pose y sus métricas de rendimiento?

Ultralytics YOLOv8 ofrece varios modelos de pose preentrenados, como YOLOv8n-pose, YOLOv8s-pose, YOLOv8m-pose, entre otros. Estos modelos difieren en tamaño, precisión (mAP) y velocidad. Por ejemplo, el modelo YOLOv8n-pose alcanza un mAPpose50-95de 50,4 y un mAPpose50de 80,1. Para consultar la lista completa y los detalles de rendimiento, visita la Sección Modelos.



Creado 2023-11-12, Actualizado 2024-07-08
Autores: k-2feng@hotmail.com (1), glenn-jocher (20), Burhan-Q (4), RizwanMunawar (1), AyushExel (1), Laughing-q (1)

Comentarios