Saltar al contenido

Conjunto de datos COCO8-Pose

Introducci贸n

Ultralytics COCO8-Pose es un peque帽o pero vers谩til conjunto de datos de detecci贸n de poses compuesto por las 8 primeras im谩genes del conjunto COCO train 2017, 4 para entrenamiento y 4 para validaci贸n. Este conjunto de datos es ideal para probar y depurar modelos de detecci贸n de objetos, o para experimentar con nuevos enfoques de detecci贸n. Con 8 im谩genes, es lo suficientemente peque帽o como para ser f谩cilmente manejable, pero lo suficientemente diverso como para comprobar si hay errores en los procesos de entrenamiento y actuar como control de sanidad antes de entrenar conjuntos de datos m谩s grandes.

Este conjunto de datos est谩 pensado para su uso con Ultralytics HUB y YOLOv8.

Conjunto de datos YAML

Se utiliza un archivo YAML (Yet Another Markup Language) para definir la configuraci贸n del conjunto de datos. Contiene informaci贸n sobre las rutas del conjunto de datos, las clases y otra informaci贸n relevante. En el caso del conjunto de datos COCO8-Pose, el archivo coco8-pose.yaml se mantiene en https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml.

ultralytics/cfg/datasets/coco8-pose.yaml

# Ultralytics YOLO 馃殌, AGPL-3.0 license
# COCO8-pose dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/pose/coco8-pose/
# Example usage: yolo train data=coco8-pose.yaml
# parent
# 鈹溾攢鈹 ultralytics
# 鈹斺攢鈹 datasets
#     鈹斺攢鈹 coco8-pose  鈫 downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8-pose # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]

# Classes
names:
  0: person

# Download script/URL (optional)
download: https://ultralytics.com/assets/coco8-pose.zip

Utilizaci贸n

Para entrenar un modelo YOLOv8n-pose en el conjunto de datos COCO8-Pose durante 100 茅pocas con un tama帽o de imagen de 640, puedes utilizar los siguientes fragmentos de c贸digo. Para obtener una lista completa de los argumentos disponibles, consulta la p谩gina Entrenamiento del modelo.

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8-pose.yaml model=yolov8n.pt epochs=100 imgsz=640

Ejemplos de im谩genes y anotaciones

He aqu铆 algunos ejemplos de im谩genes del conjunto de datos COCO8-Pose, junto con sus correspondientes anotaciones:

Imagen de muestra del conjunto de datos

  • Imagen en mosaico: Esta imagen muestra un lote de entrenamiento compuesto por im谩genes del conjunto de datos en mosaico. El mosaico es una t茅cnica utilizada durante el entrenamiento que combina varias im谩genes en una sola para aumentar la variedad de objetos y escenas dentro de cada lote de entrenamiento. Esto ayuda a mejorar la capacidad del modelo para generalizarse a diferentes tama帽os de objetos, relaciones de aspecto y contextos.

El ejemplo muestra la variedad y complejidad de las im谩genes del conjunto de datos COCO8-Pose y las ventajas de utilizar mosaicos durante el proceso de entrenamiento.

Citas y agradecimientos

Si utilizas el conjunto de datos COCO en tu trabajo de investigaci贸n o desarrollo, cita el siguiente documento:

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Doll谩r},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Queremos agradecer al Consorcio COCO la creaci贸n y el mantenimiento de este valioso recurso para la comunidad de visi贸n por ordenador. Para m谩s informaci贸n sobre el conjunto de datos COCO y sus creadores, visita el sitio web del conjunto de datos COCO.



Creado 2023-11-12, Actualizado 2024-05-18
Autores: glenn-jocher (5), Laughing-q (1)

Comentarios