COCO データセット
The COCO (Common Objects in Context) dataset is a large-scale object detection, segmentation, and captioning dataset. It is designed to encourage research on a wide variety of object categories and is commonly used for benchmarking computer vision models. It is an essential dataset for researchers and developers working on object detection, segmentation, and pose estimation tasks.
見るんだ: Ultralytics COCOデータセットの概要
COCO学習済みモデル
モデル | サイズ (ピクセル) |
mAPval 50-95 |
速度 CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
主な特徴
- COCOには33万枚の画像が収録されており、20万枚の画像には物体検出、セグメンテーション、キャプションのタスクのためのアノテーションが付けられている。
- このデータセットには、車、自転車、動物などの一般的なオブジェクトから、傘、ハンドバッグ、スポーツ用品などの特殊なオブジェクトまで、80のオブジェクト・カテゴリが含まれている。
- 注釈には、各画像のオブジェクトのバウンディングボックス、セグメンテーションマスク、キャプションが含まれる。
- COCO provides standardized evaluation metrics like mean Average Precision (mAP) for object detection, and mean Average Recall (mAR) for segmentation tasks, making it suitable for comparing model performance.
データセット構造
COCOデータセットは3つのサブセットに分かれている:
- Train2017:このサブセットには、オブジェクト検出、セグメンテーション、キャプションモデルのトレーニング用の118K画像が含まれています。
- Val2017:このサブセットには、モデルのトレーニング中に検証目的で使用された5K画像が含まれる。
- Test2017:このサブセットは、学習済みモデルのテストとベンチマークに使用される2万枚の画像で構成される。このサブセットのグランドトゥルースアノテーションは公開されておらず、結果は性能評価のためにCOCO評価サーバに提出される。
アプリケーション
The COCO dataset is widely used for training and evaluating deep learning models in object detection (such as YOLO, Faster R-CNN, and SSD), instance segmentation (such as Mask R-CNN), and keypoint detection (such as OpenPose). The dataset's diverse set of object categories, large number of annotated images, and standardized evaluation metrics make it an essential resource for computer vision researchers and practitioners.
データセット YAML
YAML (Yet Another Markup Language) ファイルはデータセットの設定を定義するために使われる。このファイルには、データセットのパス、クラス、その他の関連情報が含まれている。COCOデータセットの場合は coco.yaml
ファイルは https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml.
ultralytics/cfg/datasets/coco.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/detect/coco/
# Example usage: yolo train data=coco.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco ← downloads here (20.1 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
# Classes
names:
0: person
1: bicycle
2: car
3: motorcycle
4: airplane
5: bus
6: train
7: truck
8: boat
9: traffic light
10: fire hydrant
11: stop sign
12: parking meter
13: bench
14: bird
15: cat
16: dog
17: horse
18: sheep
19: cow
20: elephant
21: bear
22: zebra
23: giraffe
24: backpack
25: umbrella
26: handbag
27: tie
28: suitcase
29: frisbee
30: skis
31: snowboard
32: sports ball
33: kite
34: baseball bat
35: baseball glove
36: skateboard
37: surfboard
38: tennis racket
39: bottle
40: wine glass
41: cup
42: fork
43: knife
44: spoon
45: bowl
46: banana
47: apple
48: sandwich
49: orange
50: broccoli
51: carrot
52: hot dog
53: pizza
54: donut
55: cake
56: chair
57: couch
58: potted plant
59: bed
60: dining table
61: toilet
62: tv
63: laptop
64: mouse
65: remote
66: keyboard
67: cell phone
68: microwave
69: oven
70: toaster
71: sink
72: refrigerator
73: book
74: clock
75: vase
76: scissors
77: teddy bear
78: hair drier
79: toothbrush
# Download script/URL (optional)
download: |
from ultralytics.utils.downloads import download
from pathlib import Path
# Download labels
segments = True # segment or box labels
dir = Path(yaml['path']) # dataset root dir
url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')] # labels
download(urls, dir=dir.parent)
# Download data
urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
download(urls, dir=dir / 'images', threads=3)
使用方法
To train a YOLO11n model on the COCO dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model Training page.
列車の例
サンプル画像と注釈
COCOデータセットには、様々なオブジェクトのカテゴリと複雑なシーンを持つ画像の多様なセットが含まれています。ここでは、データセットに含まれる画像の例を、対応するアノテーションとともに紹介する:
- モザイク画像:この画像は、モザイク処理されたデータセット画像で構成されたトレーニングバッチを示す。モザイク処理とは、複数の画像を1つの画像に合成し、各トレーニングバッチ内のオブジェクトやシーンの種類を増やすトレーニング時に使用される手法です。これにより、異なるオブジェクトサイズ、アスペクト比、コンテクストに対するモデルの汎化能力を向上させることができます。
この例では、COCOデータセットの画像の多様性と複雑さ、および学習プロセスでモザイク処理を使用する利点を示している。
引用と謝辞
COCOデータセットを研究開発に使用する場合は、以下の論文を引用してください:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
COCOコンソーシアムが、コンピュータビジョンコミュニティのためにこの貴重なリソースを作成し、維持してくれていることに感謝したい。COCOデータセットとその作成者についての詳細は、COCOデータセットのウェブサイトをご覧ください。
よくあるご質問
COCOデータセットとはどのようなもので、なぜコンピュータビジョンにとって重要なのでしょうか?
The COCO dataset (Common Objects in Context) is a large-scale dataset used for object detection, segmentation, and captioning. It contains 330K images with detailed annotations for 80 object categories, making it essential for benchmarking and training computer vision models. Researchers use COCO due to its diverse categories and standardized evaluation metrics like mean Average Precision (mAP).
COCOデータセットを使って、YOLO モデルをトレーニングするにはどうすればよいですか?
To train a YOLO11 model using the COCO dataset, you can use the following code snippets:
列車の例
利用可能な引数の詳細については、トレーニングのページを参照してください。
COCOデータセットの主な特徴は?
COCOデータセットには以下が含まれる:
- 330Kの画像、200Kはオブジェクト検出、セグメンテーション、キャプションのためにアノテーションされている。
- 車や動物のような一般的なものから、ハンドバッグやスポーツ用品のような特殊なものまで、80のオブジェクト・カテゴリーがある。
- 物体検出(mAP)とセグメンテーション(mAR)の標準化された評価指標。
- 様々なオブジェクトのサイズやコンテクストにまたがってモデルの汎化を強化するために、トレーニングバッチにモザイクをかけるテクニック。
Where can I find pretrained YOLO11 models trained on the COCO dataset?
Pretrained YOLO11 models on the COCO dataset can be downloaded from the links provided in the documentation. Examples include:
これらのモデルは、サイズ、mAP、推論速度が異なるため、さまざまなパフォーマンスとリソース要件に対応するオプションが用意されている。
COCOデータセットはどのような構造になっているのですか?
COCOデータセットは3つのサブセットに分かれている:
- Train2017:トレーニング用画像118K枚。
- Val2017:トレーニング中の検証用5K画像
- Test2017:学習済みモデルのベンチマーク用に20K画像を用意。性能評価のため、結果をCOCO評価サーバに提出する必要がある。
データセットのYAML設定ファイルはcoco.yamlにあり、パス、クラス、データセットの詳細を定義している。