Salta para o conteĆŗdo

Conjunto de dados COCO8-Pose

IntroduĆ§Ć£o

Ultralytics O COCO8-Pose Ć© um conjunto de dados de deteĆ§Ć£o de pose pequeno, mas versĆ”til, composto pelas primeiras 8 imagens do conjunto COCO train 2017, 4 para treino e 4 para validaĆ§Ć£o. Este conjunto de dados Ć© ideal para testar e depurar modelos de deteĆ§Ć£o de objectos, ou para experimentar novas abordagens de deteĆ§Ć£o. Com 8 imagens, Ć© suficientemente pequeno para ser facilmente gerĆ­vel, mas suficientemente diversificado para testar os pipelines de treino quanto a erros e funcionar como uma verificaĆ§Ć£o de sanidade antes de treinar conjuntos de dados maiores.

Este conjunto de dados destina-se a ser utilizado com Ultralytics HUB e YOLOv8.

Conjunto de dados YAML

Um ficheiro YAML (Yet Another Markup Language) Ć© utilizado para definir a configuraĆ§Ć£o do conjunto de dados. ContĆ©m informaƧƵes sobre os caminhos do conjunto de dados, classes e outras informaƧƵes relevantes. No caso do conjunto de dados COCO8-Pose, o ficheiro coco8-pose.yaml Ć© mantido em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8-pose.yaml.

ultralytics/cfg/datasets/coco8-pose.yaml

# Ultralytics YOLO šŸš€, AGPL-3.0 license
# COCO8-pose dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/pose/coco8-pose/
# Example usage: yolo train data=coco8-pose.yaml
# parent
# ā”œā”€ā”€ ultralytics
# ā””ā”€ā”€ datasets
#     ā””ā”€ā”€ coco8-pose  ā† downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8-pose # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]

# Classes
names:
  0: person

# Download script/URL (optional)
download: https://ultralytics.com/assets/coco8-pose.zip

UtilizaĆ§Ć£o

Para treinar um modelo YOLOv8n-pose no conjunto de dados COCO8-Pose para 100 Ć©pocas com um tamanho de imagem de 640, podes utilizar os seguintes fragmentos de cĆ³digo. Para obter uma lista abrangente dos argumentos disponĆ­veis, consulta a pĆ”gina de treino do modelo.

Exemplo de comboio

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-pose.pt')  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8-pose.yaml model=yolov8n.pt epochs=100 imgsz=640

Exemplos de imagens e anotaƧƵes

Aqui estĆ£o alguns exemplos de imagens do conjunto de dados COCO8-Pose, juntamente com as anotaƧƵes correspondentes:

Imagem de amostra do conjunto de dados

  • Imagem em mosaico: Esta imagem demonstra um lote de treino composto por imagens do conjunto de dados em mosaico. O mosaico Ć© uma tĆ©cnica utilizada durante o treino que combina vĆ”rias imagens numa Ćŗnica imagem para aumentar a variedade de objectos e cenas em cada lote de treino. Isto ajuda a melhorar a capacidade do modelo de generalizar para diferentes tamanhos de objectos, proporƧƵes e contextos.

O exemplo mostra a variedade e complexidade das imagens no conjunto de dados COCO8-Pose e as vantagens da utilizaĆ§Ć£o de mosaicos durante o processo de formaĆ§Ć£o.

CitaƧƵes e agradecimentos

Se utilizares o conjunto de dados COCO no teu trabalho de investigaĆ§Ć£o ou desenvolvimento, cita o seguinte documento:

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr DollƔr},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

GostarĆ­amos de agradecer ao COCO Consortium pela criaĆ§Ć£o e manutenĆ§Ć£o deste valioso recurso para a comunidade da visĆ£o computacional. Para mais informaƧƵes sobre o conjunto de dados COCO e os seus criadores, visita o sĆ­tio Web do conjunto de dados COCO.



Criado em 2023-11-12, Atualizado em 2024-01-07
Autores: glenn-jocher (4), Laughing-q (1)

ComentƔrios