Ir al contenido

Estimación de la pose

Ejemplos de estimación de poses

La estimación de la pose es una tarea que consiste en identificar la ubicación de puntos específicos en una imagen, normalmente denominados puntos clave. Los puntos clave pueden representar diversas partes del objeto, como articulaciones, puntos de referencia u otras características distintivas. Las ubicaciones de los puntos clave suelen representarse como un conjunto de 2D [x, y] o 3D [x, y, visible] coordenadas.

La salida de un modelo de estimación de pose es un conjunto de puntos que representan los puntos clave de un objeto en la imagen, normalmente junto con las puntuaciones de confianza de cada punto. La estimación de la pose es una buena opción cuando se necesita identificar partes específicas de un objeto en una escena, y su ubicación en relación con los demás.



Observa: Ultralytics YOLO11 Tutorial de estimación de la pose | Seguimiento de objetos en tiempo real y detección de la pose humana

Consejo

YOLO11 posar utilizan el -pose es decir yolo11n-pose.pt. Estos modelos se entrenan con la Puntos clave de COCO y son adecuados para diversas tareas de estimación de la pose.

En el modelo de pose predeterminado de YOLO11 , hay 17 puntos clave, cada uno de los cuales representa una parte diferente del cuerpo humano. A continuación se muestra la correspondencia de cada índice con su respectiva articulación corporal:

  1. Nariz
  2. Ojo izquierdo
  3. Ojo derecho
  4. Oreja izquierda
  5. Oído derecho
  6. Hombro izquierdo
  7. Hombro derecho
  8. Codo izquierdo
  9. Codo derecho
  10. Muñeca izquierda
  11. Muñeca derecha
  12. Cadera izquierda
  13. Cadera derecha
  14. Rodilla izquierda
  15. Rodilla derecha
  16. Tobillo izquierdo
  17. Tobillo derecho

Modelos

Aquí se muestran los modelos Pretrained Pose Ultralytics YOLO11 . Los modelos Detect, Segment y Pose se han preentrenado en el conjunto de datos COCO, mientras que los modelos Classify se han preentrenado en el conjunto de datos ImageNet.

Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.

Modelo tamaño
(píxeles)
mAPpose
50-95
mAPpose
50
Velocidad
CPU ONNX
(ms)
Velocidad
T4TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3
  • mAPval son para un solo modelo de escala única en Puntos clave de COCO val2017 conjunto de datos.
    Reproducir por yolo val pose data=coco-pose.yaml device=0
  • Velocidad promediadas sobre imágenes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val pose data=coco-pose.yaml batch=1 device=0|cpu

Tren

Entrene un modelo YOLO11 en el conjunto de datos COCO8-pose. El conjunto de datos COCO8-pose es un pequeño conjunto de datos de muestra perfecto para probar y depurar los modelos de estimación de la pose.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640

Formato del conjunto de datos

El formato de los conjuntos de datos de pose YOLO puede consultarse en detalle en la Guía de conjuntos de datos. Para convertir su conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utilice la herramienta JSON2YOLO de Ultralytics.

Para tareas personalizadas de estimación de la pose, también puede explorar conjuntos de datos especializados como Tiger-Pose para la estimación de la pose de animales, Hand Keypoints para el seguimiento de manos o Dog-Pose para el análisis de la pose canina.

Val

Validar el modelo YOLO11n-pose entrenado precisión en el conjunto de datos COCO8-pose. No se necesitan argumentos, ya que el model conserva su formación data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolo11n-pose.pt # val official model
yolo pose val model=path/to/best.pt # val custom model

Predecir

Utilice un modelo YOLO11n-pose entrenado para realizar predicciones sobre imágenes. El modo de predicción permite realizar inferencias sobre imágenes, vídeos o secuencias en tiempo real.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image

# Access the results
for result in results:
    xy = result.keypoints.xy  # x and y coordinates
    xyn = result.keypoints.xyn  # normalized
    kpts = result.keypoints.data  # x, y, visibility (if available)
yolo pose predict model=yolo11n-pose.pt source='https://ultralytics.com/images/bus.jpg' # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

Ver todos predict detalles del modo en el Predecir página.

Exportar

Exporte un modelo YOLO11n Pose a un formato diferente como ONNX, CoreML, etc. Esto le permite desplegar su modelo en varias plataformas y dispositivos para la inferencia en tiempo real.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-pose.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model

Los formatos de exportación disponibles de YOLO11-pose se encuentran en la tabla siguiente. Puede exportar a cualquier formato utilizando el botón format es decir format='onnx' o format='engine'. Puede predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolo11n-pose.onnx. Se muestran ejemplos de uso de su modelo una vez finalizada la exportación.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolo11n-pose.pt -
TorchScript torchscript yolo11n-pose.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n-pose.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n-pose_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-pose_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n-pose.pb imgsz, batch
TF Lite tflite yolo11n-pose.tflite imgsz, half, int8, nms, batch, data
TF Borde TPU edgetpu yolo11n-pose_edgetpu.tflite imgsz
TF.js tfjs yolo11n-pose_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n-pose_paddle_model/ imgsz, batch
MNN mnn yolo11n-pose.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-pose_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-pose_imx_model/ imgsz, int8, data
RKNN rknn yolo11n-pose_rknn_model/ imgsz, batch, name

Ver todos export detalles en el Exportar página.

PREGUNTAS FRECUENTES

¿Qué es la estimación de la pose con Ultralytics YOLO11 y cómo funciona?

La estimación de la pose con Ultralytics YOLO11 implica la identificación de puntos específicos, conocidos como puntos clave, en una imagen. Estos puntos clave suelen representar articulaciones u otras características importantes del objeto. El resultado incluye [x, y] coordenadas y puntuaciones de confianza para cada punto. YOLO11-pose están diseñados específicamente para esta tarea y utilizan la -pose como, por ejemplo yolo11n-pose.pt. Estos modelos se entrenan previamente en conjuntos de datos como Puntos clave de COCO y puede utilizarse para diversas tareas de estimación de la pose. Para más información, visite la página Página de estimación de poses.

¿Cómo puedo entrenar un modelo YOLO11-pose en un conjunto de datos personalizado?

El entrenamiento de un modelo YOLO11-pose en un conjunto de datos personalizado implica cargar un modelo, ya sea un nuevo modelo definido por un archivo YAML o un modelo preentrenado. A continuación, puede iniciar el proceso de entrenamiento utilizando el conjunto de datos y los parámetros especificados.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

Para obtener información detallada sobre el entrenamiento, consulte la sección Entrenamiento. También puede utilizar Ultralytics HUB para entrenar modelos de estimación de pose personalizados sin código.

¿Cómo se valida un modelo entrenado de YOLO11-pose?

La validación de un modelo YOLO11-pose consiste en evaluar su precisión utilizando los mismos parámetros del conjunto de datos conservados durante el entrenamiento. He aquí un ejemplo:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

Para más información, visite la sección Val.

¿Puedo exportar un modelo YOLO11-pose a otros formatos, y cómo?

Sí, puede exportar un modelo YOLO11-pose a varios formatos como ONNX, CoreML, TensorRT, y más. Para ello, puede utilizar Python o la interfaz de línea de comandos (CLI).

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

Consulte la sección Exportar para obtener más información. Los modelos exportados pueden desplegarse en dispositivos periféricos para aplicaciones en tiempo real como el seguimiento del estado físico, el análisis deportivo o la robótica.

¿Cuáles son los modelos disponibles de Ultralytics YOLO11 -pose y sus métricas de rendimiento?

Ultralytics YOLO11 ofrece varios modelos de pose preentrenados, como YOLO11n-pose, YOLO11s-pose, YOLO11m-pose, entre otros. Estos modelos difieren en tamaño, precisión (mAP) y velocidad. Por ejemplo, el modelo YOLO11n-pose alcanza un mAPpose50-95de 50,0 y un mAPpose50de 81,0. Para consultar la lista completa y los detalles de rendimiento, visite la sección Modelos.

Creado hace 1 año ✏️ Actualizado hace 3 días

Comentarios