Ir al contenido

Estimación de la pose

Ejemplos de estimación de poses

La estimación de la pose es una tarea que consiste en identificar la ubicación de puntos específicos en una imagen, normalmente denominados puntos clave. Los puntos clave pueden representar diversas partes del objeto, como articulaciones, puntos de referencia u otras características distintivas. Las ubicaciones de los puntos clave suelen representarse como un conjunto de 2D [x, y] o 3D [x, y, visible] coordenadas.

La salida de un modelo de estimación de pose es un conjunto de puntos que representan los puntos clave de un objeto en la imagen, normalmente junto con las puntuaciones de confianza de cada punto. La estimación de la pose es una buena opción cuando se necesita identificar partes específicas de un objeto en una escena, y su ubicación en relación con los demás.


Observa: Estimación de la pose con Ultralytics YOLO .

Observa: Estimación de la pose con Ultralytics HUB.

Consejo

YOLO11 posar utilizan el -pose es decir yolo11n-pose.pt. Estos modelos se entrenan con la Puntos clave de COCO y son adecuados para diversas tareas de estimación de la pose.

En el modelo de pose predeterminado de YOLO11 , hay 17 puntos clave, cada uno de los cuales representa una parte diferente del cuerpo humano. A continuación se muestra la correspondencia de cada índice con su respectiva articulación corporal:

0: Nariz 1: Ojo izquierdo 2: Ojo derecho 3: Oreja izquierda 4: Oreja derecha 5: Hombro izquierdo 6: Hombro derecho 7: Codo izquierdo 8: Codo derecho 9: Muñeca izquierda 10: Muñeca derecha 11: Cadera izquierda 12: Cadera derecha 13: Rodilla izquierda 14: Rodilla derecha 15: Tobillo izquierdo 16: Tobillo derecho

Modelos

YOLO11 Aquí se muestran los modelos Pose preentrenados. Los modelos Detect, Segment y Pose se preentrenan en el conjunto de datos COCO, mientras que los modelos Classify se preentrenan en el conjunto de datos ImageNet.

Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.

Modelo tamaño
(píxeles)
mAPpose
50-95
mAPpose
50
Velocidad
CPU ONNX
(ms)
Velocidad
T4TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3
  • mAPval son para un solo modelo de escala única en Puntos clave de COCO val2017 conjunto de datos.
    Reproducir por yolo val pose data=coco-pose.yaml device=0
  • Velocidad promediadas sobre imágenes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val pose data=coco-pose.yaml batch=1 device=0|cpu

Tren

Entrenar un modelo YOLO11-pose en el conjunto de datos COCO8-pose.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640

Formato del conjunto de datos

YOLO El formato de los conjuntos de datos se detalla en la Guía de conjuntos de datos. Para convertir su conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utilice la herramienta JSON2YOLO de Ultralytics.

Val

Validar el modelo YOLO11n-pose entrenado precisión en el conjunto de datos COCO8-pose. No se necesitan argumentos, ya que el model conserva su formación data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolo11n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

Predecir

Utilizar un modelo YOLO11n-pose entrenado para realizar predicciones sobre las imágenes.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolo11n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Ver todos predict detalles del modo en el Predecir página.

Exportar

Exportar un modelo YOLO11n Pose a un formato diferente como ONNX, CoreML, etc.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Los formatos de exportación disponibles de YOLO11-pose se encuentran en la tabla siguiente. Puede exportar a cualquier formato utilizando el botón format es decir format='onnx' o format='engine'. Puede predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolo11n-pose.onnx. Se muestran ejemplos de uso de su modelo una vez finalizada la exportación.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolo11n-pose.pt -
TorchScript torchscript yolo11n-pose.torchscript imgsz, optimize, batch
ONNX onnx yolo11n-pose.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n-pose_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-pose_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n-pose.pb imgsz, batch
TF Lite tflite yolo11n-pose.tflite imgsz, half, int8, batch
TF Borde TPU edgetpu yolo11n-pose_edgetpu.tflite imgsz
TF.js tfjs yolo11n-pose_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n-pose_paddle_model/ imgsz, batch
MNN mnn yolo11n-pose.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-pose_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-pose_imx_model/ imgsz, int8

Ver todos export detalles en el Exportar página.

PREGUNTAS FRECUENTES

¿Qué es la estimación de la pose con Ultralytics YOLO11 y cómo funciona?

La estimación de la pose con Ultralytics YOLO11 implica la identificación de puntos específicos, conocidos como puntos clave, en una imagen. Estos puntos clave suelen representar articulaciones u otras características importantes del objeto. El resultado incluye [x, y] coordenadas y puntuaciones de confianza para cada punto. YOLO11-pose están diseñados específicamente para esta tarea y utilizan la -pose como, por ejemplo yolo11n-pose.pt. Estos modelos se entrenan previamente en conjuntos de datos como Puntos clave de COCO y puede utilizarse para diversas tareas de estimación de la pose. Para más información, visite la página Página de estimación de poses.

¿Cómo puedo entrenar un modelo YOLO11-pose en un conjunto de datos personalizado?

El entrenamiento de un modelo YOLO11-pose en un conjunto de datos personalizado implica cargar un modelo, ya sea un nuevo modelo definido por un archivo YAML o un modelo preentrenado. A continuación, puede iniciar el proceso de entrenamiento utilizando el conjunto de datos y los parámetros especificados.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.yaml")  # build a new model from YAML
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

Para más información sobre la formación, consulte la sección Formación.

¿Cómo se valida un modelo entrenado de YOLO11-pose?

La validación de un modelo YOLO11-pose consiste en evaluar su precisión utilizando los mismos parámetros del conjunto de datos conservados durante el entrenamiento. He aquí un ejemplo:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

Para más información, visite la sección Val.

¿Puedo exportar un modelo YOLO11-pose a otros formatos, y cómo?

Sí, puede exportar un modelo YOLO11-pose a varios formatos como ONNX, CoreML, TensorRT, y más. Para ello, puede utilizar Python o la interfaz de línea de comandos (CLI).

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

Consulte la sección Exportación para obtener más información.

¿Cuáles son los modelos disponibles de Ultralytics YOLO11 -pose y sus métricas de rendimiento?

Ultralytics YOLO11 ofrece varios modelos de pose preentrenados, como YOLO11n-pose, YOLO11s-pose, YOLO11m-pose, entre otros. Estos modelos difieren en tamaño, precisión (mAP) y velocidad. Por ejemplo, el modelo YOLO11n-pose alcanza un mAPpose50-95de 50,4 y un mAPpose50de 80,1. Para consultar la lista completa y los detalles de rendimiento, visite la sección Modelos.

Creado hace 1 año ✏️ Actualizado hace 1 mes

Comentarios