Estimación de la pose
La estimación de la pose es una tarea que consiste en identificar la ubicación de puntos específicos en una imagen, normalmente denominados puntos clave. Los puntos clave pueden representar diversas partes del objeto, como articulaciones, puntos de referencia u otras características distintivas. Las ubicaciones de los puntos clave suelen representarse como un conjunto de 2D [x, y]
o 3D [x, y, visible]
coordenadas.
La salida de un modelo de estimación de pose es un conjunto de puntos que representan los puntos clave de un objeto en la imagen, normalmente junto con las puntuaciones de confianza de cada punto. La estimación de la pose es una buena opción cuando se necesita identificar partes específicas de un objeto en una escena, y su ubicación en relación con los demás.
Observa: Ultralytics YOLO11 Tutorial de estimación de la pose | Seguimiento de objetos en tiempo real y detección de la pose humana
Consejo
YOLO11 posar utilizan el -pose
es decir yolo11n-pose.pt
. Estos modelos se entrenan con la Puntos clave de COCO y son adecuados para diversas tareas de estimación de la pose.
En el modelo de pose predeterminado de YOLO11 , hay 17 puntos clave, cada uno de los cuales representa una parte diferente del cuerpo humano. A continuación se muestra la correspondencia de cada índice con su respectiva articulación corporal:
0: Nariz 1: Ojo izquierdo 2: Ojo derecho 3: Oreja izquierda 4: Oreja derecha 5: Hombro izquierdo 6: Hombro derecho 7: Codo izquierdo 8: Codo derecho 9: Muñeca izquierda 10: Muñeca derecha 11: Cadera izquierda 12: Cadera derecha 13: Rodilla izquierda 14: Rodilla derecha 15: Tobillo izquierdo 16: Tobillo derecho
Modelos
YOLO11 Aquí se muestran los modelos Pose preentrenados. Los modelos Detect, Segment y Pose se preentrenan en el conjunto de datos COCO, mientras que los modelos Classify se preentrenan en el conjunto de datos ImageNet.
Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.
Modelo | tamaño (píxeles) |
mAPpose 50-95 |
mAPpose 50 |
Velocidad CPU ONNX (ms) |
Velocidad T4TensorRT10 (ms) |
parámetros (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- mAPval son para un solo modelo de escala única en Puntos clave de COCO val2017 conjunto de datos.
Reproducir poryolo val pose data=coco-pose.yaml device=0
- Velocidad promediadas sobre imágenes COCO val utilizando un Amazon EC2 P4d instancia.
Reproducir poryolo val pose data=coco-pose.yaml batch=1 device=0|cpu
Tren
Entrenar un modelo YOLO11-pose en el conjunto de datos COCO8-pose.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640
Formato del conjunto de datos
YOLO El formato de los conjuntos de datos se detalla en la Guía de conjuntos de datos. Para convertir su conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utilice la herramienta JSON2YOLO de Ultralytics.
Val
Validar el modelo YOLO11n-pose entrenado precisión en el conjunto de datos COCO8-pose. No se necesitan argumentos, ya que el model
conserva su formación data
y argumentos como atributos del modelo.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Predecir
Utilizar un modelo YOLO11n-pose entrenado para realizar predicciones sobre las imágenes.
Ejemplo
Ver todos predict
detalles del modo en el Predecir página.
Exportar
Exportar un modelo YOLO11n Pose a un formato diferente como ONNX, CoreML, etc.
Ejemplo
Los formatos de exportación disponibles de YOLO11-pose se encuentran en la tabla siguiente. Puede exportar a cualquier formato utilizando el botón format
es decir format='onnx'
o format='engine'
. Puede predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolo11n-pose.onnx
. Se muestran ejemplos de uso de su modelo una vez finalizada la exportación.
Formato | format Argumento |
Modelo | Metadatos | Argumentos |
---|---|---|---|---|
PyTorch | - | yolo11n-pose.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-pose.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-pose.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-pose_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-pose.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-pose.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-pose_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-pose.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-pose.tflite |
✅ | imgsz , half , int8 , batch |
TF Borde TPU | edgetpu |
yolo11n-pose_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-pose_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-pose_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-pose.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-pose_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-pose_imx_model/ |
✅ | imgsz , int8 |
Ver todos export
detalles en el Exportar página.
PREGUNTAS FRECUENTES
¿Qué es la estimación de la pose con Ultralytics YOLO11 y cómo funciona?
La estimación de la pose con Ultralytics YOLO11 implica la identificación de puntos específicos, conocidos como puntos clave, en una imagen. Estos puntos clave suelen representar articulaciones u otras características importantes del objeto. El resultado incluye [x, y]
coordenadas y puntuaciones de confianza para cada punto. YOLO11-pose están diseñados específicamente para esta tarea y utilizan la -pose
como, por ejemplo yolo11n-pose.pt
. Estos modelos se entrenan previamente en conjuntos de datos como Puntos clave de COCO y puede utilizarse para diversas tareas de estimación de la pose. Para más información, visite la página Página de estimación de poses.
¿Cómo puedo entrenar un modelo YOLO11-pose en un conjunto de datos personalizado?
El entrenamiento de un modelo YOLO11-pose en un conjunto de datos personalizado implica cargar un modelo, ya sea un nuevo modelo definido por un archivo YAML o un modelo preentrenado. A continuación, puede iniciar el proceso de entrenamiento utilizando el conjunto de datos y los parámetros especificados.
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
Para más información sobre la formación, consulte la sección Formación.
¿Cómo se valida un modelo entrenado de YOLO11-pose?
La validación de un modelo YOLO11-pose consiste en evaluar su precisión utilizando los mismos parámetros del conjunto de datos conservados durante el entrenamiento. He aquí un ejemplo:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
Para más información, visite la sección Val.
¿Puedo exportar un modelo YOLO11-pose a otros formatos, y cómo?
Sí, puede exportar un modelo YOLO11-pose a varios formatos como ONNX, CoreML, TensorRT, y más. Para ello, puede utilizar Python o la interfaz de línea de comandos (CLI).
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
Consulte la sección Exportación para obtener más información.
¿Cuáles son los modelos disponibles de Ultralytics YOLO11 -pose y sus métricas de rendimiento?
Ultralytics YOLO11 ofrece varios modelos de pose preentrenados, como YOLO11n-pose, YOLO11s-pose, YOLO11m-pose, entre otros. Estos modelos difieren en tamaño, precisión (mAP) y velocidad. Por ejemplo, el modelo YOLO11n-pose alcanza un mAPpose50-95de 50,4 y un mAPpose50de 80,1. Para consultar la lista completa y los detalles de rendimiento, visite la sección Modelos.