COCO-Pose Dataset
De COCO-Pose dataset is een gespecialiseerde versie van de COCO (Common Objects in Context) dataset, ontworpen voor het schatten van houdingen. Het maakt gebruik van de COCO Keypoints 2017 afbeeldingen en labels om de training van modellen zoals YOLO voor pose schattingstaken mogelijk te maken.
COCO-Pose Vooraf Getrainde Modellen
Model | grootte (pixels) |
mAPpose 50-95 |
mAPpose 50 |
Snelheid CPU ONNX (ms) |
Snelheid A100 TensorRT (ms) |
params (M) |
FLOP's (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-pose | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-pose | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-pose | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-pose | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-pose | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
Belangrijkste kenmerken
- COCO-Pose bouwt voort op de COCO Keypoints 2017 dataset die 200K afbeeldingen bevat die gelabeld zijn met keypoints voor pose-schattingstaken.
- De dataset ondersteunt 17 sleutelpunten voor menselijke figuren, waardoor een gedetailleerde schatting van de houding mogelijk is.
- Net als COCO biedt het gestandaardiseerde evaluatiemetrieken, waaronder Object Keypoint Similarity (OKS) voor pose estimation taken, waardoor het geschikt is voor het vergelijken van modelprestaties.
Structuur dataset
De COCO-Pose dataset is opgesplitst in drie subsets:
- Train2017: Deze subset bevat een deel van de 118K afbeeldingen van de COCO dataset, geannoteerd voor het trainen van modellen voor het schatten van de houding.
- Val2017: Deze subset bevat een selectie afbeeldingen die tijdens de modeltraining zijn gebruikt voor validatiedoeleinden.
- Test2017: Deze subset bestaat uit afbeeldingen die worden gebruikt voor het testen en benchmarken van de getrainde modellen. Ground truth annotaties voor deze subset zijn niet publiekelijk beschikbaar en de resultaten worden ingediend bij de COCO evaluatieserver voor prestatie-evaluatie.
Toepassingen
De COCO-Pose dataset wordt specifiek gebruikt voor het trainen en evalueren van deep learning modellen in keypoint detection en pose estimation taken, zoals OpenPose. Het grote aantal geannoteerde afbeeldingen en de gestandaardiseerde evaluatiemetrieken maken de dataset tot een essentiƫle bron voor computer vision onderzoekers en praktijkmensen die zich richten op pose estimation.
Dataset YAML
Een YAML (Yet Another Markup Language) bestand wordt gebruikt om de configuratie van de dataset te definiƫren. Het bevat informatie over de paden, klassen en andere relevante informatie van de dataset. In het geval van de COCO-Pose dataset is de coco-pose.yaml
bestand wordt onderhouden op https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml.
ultralytics/cfg/datasets/coco-pose.yaml
# Ultralytics YOLO š, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/pose/coco/
# Example usage: yolo train data=coco-pose.yaml
# parent
# āāā ultralytics
# āāā datasets
# āāā coco-pose ā downloads here (20.1 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco-pose # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]
# Classes
names:
0: person
# Download script/URL (optional)
download: |
from ultralytics.utils.downloads import download
from pathlib import Path
# Download labels
dir = Path(yaml['path']) # dataset root dir
url = 'https://github.com/ultralytics/yolov5/releases/download/v1.0/'
urls = [url + 'coco2017labels-pose.zip'] # labels
download(urls, dir=dir.parent)
# Download data
urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
download(urls, dir=dir / 'images', threads=3)
Gebruik
Om een YOLOv8n-pose model te trainen op de COCO-Pose dataset voor 100 epochs met een afbeeldingsgrootte van 640, kun je de volgende codefragmenten gebruiken. Raadpleeg de pagina Model Training voor een uitgebreide lijst met beschikbare argumenten.
Voorbeeld trein
Voorbeeldafbeeldingen en -annotaties
De COCO-Pose dataset bevat een diverse set afbeeldingen met menselijke figuren geannoteerd met sleutelpunten. Hier zijn enkele voorbeelden van afbeeldingen uit de dataset, samen met de bijbehorende annotaties:
- GemozaĆÆekte afbeelding: Deze afbeelding toont een trainingsbatch die bestaat uit gemozaĆÆekte afbeeldingen van de dataset. MozaĆÆeken is een techniek die tijdens het trainen wordt gebruikt om meerdere afbeeldingen te combineren tot Ć©Ć©n afbeelding om de verscheidenheid aan objecten en scĆØnes binnen elke trainingsbatch te vergroten. Dit helpt het vermogen van het model om te generaliseren naar verschillende objectgroottes, beeldverhoudingen en contexten te verbeteren.
Het voorbeeld toont de verscheidenheid en complexiteit van de afbeeldingen in de COCO-Pose dataset en de voordelen van het gebruik van mozaĆÆek tijdens het trainingsproces.
Citaten en erkenningen
Als je de COCO-Pose dataset gebruikt in je onderzoek of ontwikkeling, citeer dan het volgende artikel:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr DollƔr},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
We willen graag het COCO Consortium bedanken voor het maken en onderhouden van deze waardevolle bron voor de computer vision gemeenschap. Ga voor meer informatie over de COCO-Pose dataset en de makers naar de COCO dataset website.
Aangemaakt 2023-11-12, Bijgewerkt 2024-04-17
Auteurs: glenn-jocher (4), RizwanMunawar (1), Laughing-q (1)