COCO-Pose veri kümesi üç alt kümeye ayrılmıştır:
COCO-Pose veri kümesi özellikle OpenPose gibi anahtar nokta tespiti ve poz tahmini görevlerinde derin öğrenme modellerini eğitmek ve değerlendirmek için kullanılır. Veri setinin çok sayıda açıklamalı görüntüsü ve standartlaştırılmış değerlendirme metrikleri, onu poz tahminine odaklanan bilgisayarla görme araştırmacıları ve uygulayıcıları için önemli bir kaynak haline getirmektedir.
Veri kümesi yapılandırmasını tanımlamak için bir YAML (Yet Another Markup Language) dosyası kullanılır. Veri kümesinin yolları, sınıfları ve diğer ilgili bilgiler hakkında bilgi içerir. COCO-Pose veri kümesi söz konusu olduğunda coco-pose.yaml
dosyası şu adreste tutulur https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml.
ultralytics/cfg/datasets/coco-pose.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/pose/coco/
# Example usage: yolo train data=coco-pose.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco-pose ← downloads here (20.1 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco-pose # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]
# Classes
names:
0: person
# Download script/URL (optional)
download: |
from ultralytics.utils.downloads import download
from pathlib import Path
# Download labels
dir = Path(yaml['path']) # dataset root dir
url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
urls = [url + 'coco2017labels-pose.zip'] # labels
download(urls, dir=dir.parent)
# Download data
urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
download(urls, dir=dir / 'images', threads=3)
Bir YOLO11n-pose modelini COCO-Pose veri kümesinde 640 görüntü boyutuyla 100 epok için eğitmek için aşağıdaki kod parçacıklarını kullanabilirsiniz. Kullanılabilir bağımsız değişkenlerin kapsamlı bir listesi için Model Eğitimi sayfasına bakın.
Tren Örneği
COCO-Pose veri kümesi, insan figürlerinin anahtar noktalarla açıklandığı çeşitli görüntüler içerir. Aşağıda veri kümesinden bazı görüntü örnekleri ve bunlara karşılık gelen ek açıklamalar yer almaktadır:
Bu örnek, COCO-Pose veri setindeki görüntülerin çeşitliliğini ve karmaşıklığını ve eğitim sürecinde mozaikleme kullanmanın faydalarını göstermektedir.
Araştırma veya geliştirme çalışmalarınızda COCO-Pose veri setini kullanıyorsanız, lütfen aşağıdaki makaleye atıfta bulunun:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Bilgisayarla görme topluluğu için bu değerli kaynağı yaratan ve sürdüren COCO Konsorsiyumu'na teşekkür ederiz. COCO-Pose veri seti ve yaratıcıları hakkında daha fazla bilgi için COCO veri seti web sitesini ziyaret edin.
COCO-Pose veri seti, poz tahmini görevleri için tasarlanmış COCO (Common Objects in Context) veri setinin özel bir versiyonudur. COCO Keypoints 2017 görüntüleri ve açıklamaları üzerine inşa edilmiştir ve ayrıntılı poz tahmini için Ultralytics YOLO gibi modellerin eğitilmesine olanak tanır. Örneğin, önceden eğitilmiş bir modeli yükleyip bir YAML yapılandırmasıyla eğiterek bir YOLO11n-poz modelini eğitmek için COCO-Poz veri kümesini kullanabilirsiniz. Eğitim örnekleri için Eğitim belgelerine bakın.
COCO-Pose veri kümesi üzerinde bir YOLO11 modelinin eğitimi Python veya CLI komutları kullanılarak gerçekleştirilebilir. Örneğin, 640 görüntü boyutuyla 100 epok için bir YOLO11n-pose modelini eğitmek için aşağıdaki adımları takip edebilirsiniz:
Tren Örneği
Eğitim süreci ve mevcut argümanlar hakkında daha fazla bilgi için eğitim sayfasını kontrol edin.
COCO-Pose veri kümesi, orijinal COCO veri kümesine benzer şekilde poz tahmin görevleri için çeşitli standartlaştırılmış değerlendirme ölçütleri sağlar. Temel ölçütler arasında, tahmin edilen anahtar noktaların doğruluğunu temel gerçek ek açıklamalarına göre değerlendiren Nesne Anahtar Nokta Benzerliği (OKS) yer alır. Bu metrikler, farklı modeller arasında kapsamlı performans karşılaştırmaları yapılmasına olanak tanır. Örneğin, YOLO11n-pose, YOLO11s-pose ve diğerleri gibi COCO-Pose ön eğitimli modellerin belgelerde listelenen mAPpose50-95ve mAPpose50gibi belirli performans ölçümleri vardır.
COCO-Pose veri kümesi üç alt kümeye ayrılmıştır:
Bu alt kümeler eğitim, doğrulama ve test aşamalarının etkili bir şekilde düzenlenmesine yardımcı olur. Yapılandırma ayrıntıları için coco-pose.yaml
dosyasında mevcut GitHub.
COCO-Pose veri kümesi, COCO Keypoints 2017 ek açıklamalarını insan figürleri için 17 anahtar nokta içerecek şekilde genişleterek ayrıntılı poz tahminine olanak sağlar. Standartlaştırılmış değerlendirme metrikleri (örn. OKS) farklı modeller arasında karşılaştırma yapılmasını kolaylaştırır. COCO-Pose veri kümesinin uygulamaları, insan figürlerinin ayrıntılı poz tahmininin gerekli olduğu spor analitiği, sağlık hizmetleri ve insan-bilgisayar etkileşimi gibi çeşitli alanları kapsamaktadır. Pratik kullanım için, dokümantasyonda sağlananlar gibi önceden eğitilmiş modellerden (örneğin, YOLO11n-pose) yararlanmak süreci önemli ölçüde kolaylaştırabilir (Temel Özellikler).
COCO-Pose veri setini araştırma veya geliştirme çalışmalarınızda kullanırsanız, lütfen aşağıdaki BibTeX girişiyle makaleye atıfta bulunun.