コンテンツぞスキップ

COCO デヌタセット

COCO(Common Objects in Context) デヌタセットは、倧芏暡なオブゞェクト怜出、セグメンテヌション、キャプション付けのデヌタセットである。様々なオブゞェクトカテゎリの研究を奚励するために蚭蚈されおおり、コンピュヌタビゞョンモデルのベンチマヌクによく䜿甚される。オブゞェクトの怜出、セグメンテヌション、ポヌズ掚定タスクに取り組む研究者や開発者にずっお䞍可欠なデヌタセットです。



芋るんだ Ultralytics COCOデヌタセットの抂芁

COCO孊習枈みモデル

モデル サむズ
(ピクセル)
mAPval
50-95
速床
CPU ONNX
(ms)
スピヌド
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9

䞻な特城

  • COCOには33䞇枚の画像が収録されおおり、20䞇枚の画像には物䜓怜出、セグメンテヌション、キャプションのタスクのためのアノテヌションが付けられおいる。
  • このデヌタセットには、車、自転車、動物などの䞀般的なオブゞェクトから、傘、ハンドバッグ、スポヌツ甚品などの特殊なオブゞェクトたで、80のオブゞェクト・カテゎリが含たれおいる。
  • 泚釈には、各画像のオブゞェクトのバりンディングボックス、セグメンテヌションマスク、キャプションが含たれる。
  • COCOは、物䜓怜出の平均平均粟床(mAP)やセグメンテヌションタスクの平均再珟率(mAR)のような暙準化された評䟡指暙を提䟛し、モデルの性胜を比范するのに適しおいる。

デヌタセット構造

COCOデヌタセットは3぀のサブセットに分かれおいる

  1. Train2017このサブセットには、オブゞェクト怜出、セグメンテヌション、キャプションモデルのトレヌニング甚の118K画像が含たれおいたす。
  2. Val2017このサブセットには、モデルのトレヌニング䞭に怜蚌目的で䜿甚された5K画像が含たれる。
  3. Test2017このサブセットは、孊習枈みモデルのテストずベンチマヌクに䜿甚される2䞇枚の画像で構成される。このサブセットのグランドトゥルヌスアノテヌションは公開されおおらず、結果は性胜評䟡のためにCOCO評䟡サヌバに提出される。

アプリケヌション

COCOデヌタセットは、物䜓怜出YOLO 、Faster R-CNN、SSDなど、むンスタンス分割Mask R-CNNなど、キヌポむント怜出OpenPoseなどのディヌプラヌニングモデルのトレヌニングや評䟡に広く䜿甚されおいたす。このデヌタセットの倚様なオブゞェクトカテゎリ、倚数の泚釈付き画像、暙準化された評䟡指暙は、コンピュヌタビゞョンの研究者や実務家にずっお䞍可欠なリ゜ヌスずなっおいたす。

デヌタセット YAML

YAML (Yet Another Markup Language) ファむルはデヌタセットの蚭定を定矩するために䜿われる。このファむルには、デヌタセットのパス、クラス、その他の関連情報が含たれおいる。COCOデヌタセットの堎合は coco.yaml ファむルは https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml.

ultralytics/cfg/datasets/coco.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/detect/coco/
# Example usage: yolo train data=coco.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco  ← downloads here (20.1 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: |
  from ultralytics.utils.downloads import download
  from pathlib import Path

  # Download labels
  segments = True  # segment or box labels
  dir = Path(yaml['path'])  # dataset root dir
  url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
  urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')]  # labels
  download(urls, dir=dir.parent)
  # Download data
  urls = ['http://images.cocodataset.org/zips/train2017.zip',  # 19G, 118k images
          'http://images.cocodataset.org/zips/val2017.zip',  # 1G, 5k images
          'http://images.cocodataset.org/zips/test2017.zip']  # 7G, 41k images (optional)
  download(urls, dir=dir / 'images', threads=3)

䜿甚方法

COCOデヌタセットでYOLO11nモデルを画像サむズ640で100゚ポック孊習させるには、以䞋のコヌド・スニペットを䜿甚できたす。利甚可胜な匕数の包括的なリストに぀いおは、モデルのトレヌニングペヌゞを参照しおください。

列車の䟋

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco.yaml model=yolo11n.pt epochs=100 imgsz=640

サンプル画像ず泚釈

COCOデヌタセットには、様々なオブゞェクトのカテゎリず耇雑なシヌンを持぀画像の倚様なセットが含たれおいたす。ここでは、デヌタセットに含たれる画像の䟋を、察応するアノテヌションずずもに玹介する

デヌタセットサンプル画像

  • モザむク画像この画像はモザむク凊理されたデヌタセット画像で構成されたトレヌニングバッチを瀺す。モザむク凊理ずは、耇数の画像を1぀の画像に合成するこずで、各トレヌニングバッチ内のオブゞェクトやシヌンの皮類を増やす手法です。これにより、異なるオブゞェクトサむズ、アスペクト比、コンテクストに察するモデルの汎化胜力を向䞊させるこずができたす。

この䟋では、COCOデヌタセットの画像の倚様性ず耇雑さ、および孊習プロセスでモザむク凊理を䜿甚する利点を瀺しおいる。

匕甚ず謝蟞

COCOデヌタセットを研究開発に䜿甚する堎合は、以䞋の論文を匕甚しおください

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

COCOコン゜ヌシアムが、コンピュヌタビゞョンコミュニティのためにこの貎重なリ゜ヌスを䜜成し、維持しおくれおいるこずに感謝したい。COCOデヌタセットずその䜜成者に぀いおの詳现は、COCOデヌタセットのりェブサむトをご芧ください。

よくあるご質問

COCOデヌタセットずはどのようなもので、なぜコンピュヌタビゞョンにずっお重芁なのでしょうか

COCOデヌタセットCommon Objects in Contextは、物䜓怜出、セグメンテヌション、キャプション付けに䜿甚される倧芏暡なデヌタセットである。COCOデヌタセットには、80のオブゞェクトカテゎリに察する詳现な泚釈が付いた330Kの画像が含たれおおり、コンピュヌタビゞョンモデルのベンチマヌクやトレヌニングに䞍可欠です。倚様なカテゎリず平均平均粟床mAPのような暙準化された評䟡指暙により、研究者はCOCOを䜿甚しおいたす。

COCOデヌタセットを䜿っお、YOLO モデルをトレヌニングするには

COCOデヌタセットを䜿っおYOLO11 モデルを蚓緎するには、以䞋のコヌド・スニペットを䜿うこずができる

列車の䟋

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco.yaml model=yolo11n.pt epochs=100 imgsz=640

利甚可胜な匕数の詳现に぀いおは、トレヌニングのペヌゞを参照しおください。

COCOデヌタセットの䞻な特城は

COCOデヌタセットには以䞋が含たれる

  • 330Kの画像、200Kはオブゞェクト怜出、セグメンテヌション、キャプションのためにアノテヌションされおいる。
  • 車や動物のような䞀般的なものから、ハンドバッグやスポヌツ甚品のような特殊なものたで、80のオブゞェクト・カテゎリヌがある。
  • 物䜓怜出mAPずセグメンテヌションmARの暙準化された評䟡指暙。
  • 様々なオブゞェクトのサむズやコンテクストにたたがっおモデルの汎化を匷化するために、トレヌニングバッチにモザむクをかけるテクニック。

COCOデヌタセットで蚓緎枈みのYOLO11 モデルはどこで手に入りたすか

COCOデヌタセットの事前蚓緎枈みYOLO11 モデルは、ドキュメントに蚘茉されおいるリンクからダりンロヌドできる。䟋を以䞋に瀺す

これらのモデルは、サむズ、mAP、掚論速床が異なるため、さたざたなパフォヌマンスずリ゜ヌス芁件に察応するオプションを提䟛する。

COCOデヌタセットはどのような構造になっおいるのですか

COCOデヌタセットは3぀のサブセットに分かれおいる

  1. Train2017トレヌニング甚画像118K枚。
  2. Val2017トレヌニング䞭の怜蚌甚5K画像
  3. Test2017孊習枈みモデルのベンチマヌク甚に20K画像を甚意。性胜評䟡のため、結果をCOCO評䟡サヌバに提出する必芁がある。

デヌタセットのYAML蚭定ファむルはcoco.yamlにあり、パス、クラス、デヌタセットの詳现を定矩しおいる。

📅䜜成1幎前 ✏曎新したした 2ヶ月前

コメント