Conjunto de datos COCO8-Pose
Introducción
Ultralytics COCO8-Pose is a small, but versatile pose detection dataset composed of the first 8 images of the COCO train 2017 set, 4 for training and 4 for validation. This dataset is ideal for testing and debugging object detection models, or for experimenting with new detection approaches. With 8 images, it is small enough to be easily manageable, yet diverse enough to test training pipelines for errors and act as a sanity check before training larger datasets.
This dataset is intended for use with Ultralytics HUB and YOLO11.
Conjunto de datos YAML
Se utiliza un archivo YAML (Yet Another Markup Language) para definir la configuración del conjunto de datos. Contiene información sobre las rutas del conjunto de datos, las clases y otra información relevante. En el caso del conjunto de datos COCO8-Pose, el archivo coco8-pose.yaml
se mantiene en https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml.
ultralytics/cfg/datasets/coco8-pose.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO8-pose dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/pose/coco8-pose/
# Example usage: yolo train data=coco8-pose.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco8-pose ← downloads here (1 MB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8-pose # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)
# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]
# Classes
names:
0: person
# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8-pose.zip
Utilización
To train a YOLO11n-pose model on the COCO8-Pose dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model Training page.
Ejemplo de tren
Ejemplos de imágenes y anotaciones
He aquí algunos ejemplos de imágenes del conjunto de datos COCO8-Pose, junto con sus correspondientes anotaciones:
- Imagen en mosaico: Esta imagen muestra un lote de entrenamiento compuesto por imágenes del conjunto de datos en mosaico. El mosaico es una técnica utilizada durante el entrenamiento que combina varias imágenes en una sola para aumentar la variedad de objetos y escenas dentro de cada lote de entrenamiento. Esto ayuda a mejorar la capacidad del modelo para generalizarse a diferentes tamaños de objetos, relaciones de aspecto y contextos.
El ejemplo muestra la variedad y complejidad de las imágenes del conjunto de datos COCO8-Pose y las ventajas de utilizar mosaicos durante el proceso de entrenamiento.
Citas y agradecimientos
Si utilizas el conjunto de datos COCO en tu trabajo de investigación o desarrollo, cita el siguiente documento:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
We would like to acknowledge the COCO Consortium for creating and maintaining this valuable resource for the computer vision community. For more information about the COCO dataset and its creators, visit the COCO dataset website.
PREGUNTAS FRECUENTES
What is the COCO8-Pose dataset, and how is it used with Ultralytics YOLO11?
The COCO8-Pose dataset is a small, versatile pose detection dataset that includes the first 8 images from the COCO train 2017 set, with 4 images for training and 4 for validation. It's designed for testing and debugging object detection models and experimenting with new detection approaches. This dataset is ideal for quick experiments with Ultralytics YOLO11. For more details on dataset configuration, check out the dataset YAML file here.
How do I train a YOLO11 model using the COCO8-Pose dataset in Ultralytics?
To train a YOLO11n-pose model on the COCO8-Pose dataset for 100 epochs with an image size of 640, follow these examples:
Ejemplo de tren
Para obtener una lista completa de argumentos de entrenamiento, consulta la página de entrenamiento del modelo.
¿Qué ventajas tiene utilizar el conjunto de datos COCO8-Pose?
El conjunto de datos COCO8-Pose ofrece varias ventajas:
- Tamaño compacto: Con sólo 8 imágenes, es fácil de manejar y perfecto para experimentos rápidos.
- Datos diversos: A pesar de su pequeño tamaño, incluye una gran variedad de escenas, útiles para realizar pruebas exhaustivas de la tubería.
- Depuración de errores: Ideal para identificar errores de entrenamiento y realizar comprobaciones de sanidad antes de escalar a conjuntos de datos mayores.
Para más información sobre sus características y uso, consulta la sección Introducción al Conjunto de Datos.
How does mosaicing benefit the YOLO11 training process using the COCO8-Pose dataset?
El mosaico, demostrado en las imágenes de muestra del conjunto de datos COCO8-Pose, combina varias imágenes en una, aumentando la variedad de objetos y escenas dentro de cada lote de entrenamiento. Esta técnica ayuda a mejorar la capacidad del modelo para generalizar a través de varios tamaños de objetos, relaciones de aspecto y contextos, mejorando en última instancia el rendimiento del modelo. Consulta la sección Imágenes de muestra y anotaciones para ver imágenes de ejemplo.
¿Dónde puedo encontrar el archivo YAML del conjunto de datos COCO8-Pose y cómo lo utilizo?
The COCO8-Pose dataset YAML file can be found here. This file defines the dataset configuration, including paths, classes, and other relevant information. Use this file with the YOLO11 training scripts as mentioned in the Train Example section.
Para más preguntas frecuentes y documentación detallada, visita la Documentación deUltralytics .