Перейти к содержимому

Набор данных COCO

The COCO (Common Objects in Context) dataset is a large-scale object detection, segmentation, and captioning dataset. It is designed to encourage research on a wide variety of object categories and is commonly used for benchmarking computer vision models. It is an essential dataset for researchers and developers working on object detection, segmentation, and pose estimation tasks.



Смотри: Ultralytics Обзор набора данных COCO

Предварительно обученные модели COCO

МодельРазмер
(пикселей)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Speed
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Основные характеристики

  • COCO содержит 330 тысяч изображений, причем 200 тысяч изображений имеют аннотации для задач обнаружения объектов, сегментации и создания надписей.
  • Набор данных включает в себя 80 категорий объектов, в том числе такие распространенные предметы, как автомобили, велосипеды и животные, а также более специфические категории, такие как зонты, сумки и спортивный инвентарь.
  • Аннотации включают в себя ограничительные рамки объектов, маски сегментации и подписи к каждому изображению.
  • COCO provides standardized evaluation metrics like mean Average Precision (mAP) for object detection, and mean Average Recall (mAR) for segmentation tasks, making it suitable for comparing model performance.

Структура набора данных

Набор данных COCO разбит на три подмножества:

  1. Train2017: Это подмножество содержит 118 тысяч изображений для обучения моделей обнаружения объектов, сегментации и создания надписей.
  2. Val2017: В этом подмножестве собраны 5K изображений, которые использовались для проверки во время обучения модели.
  3. Test2017: Это подмножество состоит из 20 тысяч изображений, используемых для тестирования и бенчмаркинга обученных моделей. Наземные истинные аннотации для этого подмножества не находятся в открытом доступе, и результаты отправляются на сервер оценки COCO для оценки производительности.

Приложения

The COCO dataset is widely used for training and evaluating deep learning models in object detection (such as YOLO, Faster R-CNN, and SSD), instance segmentation (such as Mask R-CNN), and keypoint detection (such as OpenPose). The dataset's diverse set of object categories, large number of annotated images, and standardized evaluation metrics make it an essential resource for computer vision researchers and practitioners.

Набор данных YAML

Для определения конфигурации набора данных используется файл YAML (Yet Another Markup Language). Он содержит информацию о путях к набору данных, классах и другую необходимую информацию. В случае с набором данных COCO файл YAML coco.yaml файл хранится по адресу https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml.

ultralytics/cfg/datasets/coco.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/detect/coco/
# Example usage: yolo train data=coco.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco  ← downloads here (20.1 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: |
  from ultralytics.utils.downloads import download
  from pathlib import Path

  # Download labels
  segments = True  # segment or box labels
  dir = Path(yaml['path'])  # dataset root dir
  url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
  urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')]  # labels
  download(urls, dir=dir.parent)
  # Download data
  urls = ['http://images.cocodataset.org/zips/train2017.zip',  # 19G, 118k images
          'http://images.cocodataset.org/zips/val2017.zip',  # 1G, 5k images
          'http://images.cocodataset.org/zips/test2017.zip']  # 7G, 41k images (optional)
  download(urls, dir=dir / 'images', threads=3)

Использование

To train a YOLO11n model on the COCO dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model Training page.

Пример поезда

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco.yaml model=yolo11n.pt epochs=100 imgsz=640

Примеры изображений и аннотаций

Набор данных COCO содержит разнообразный набор изображений с различными категориями объектов и сложными сценами. Вот несколько примеров изображений из этого набора, а также соответствующие им аннотации:

Образец изображения из набора данных

  • Мозаичное изображение: Это изображение демонстрирует тренировочную партию, состоящую из мозаичных изображений набора данных. Мозаика - это техника, используемая во время обучения, которая объединяет несколько изображений в одно, чтобы увеличить разнообразие объектов и сцен в каждой обучающей партии. Это помогает улучшить способность модели к обобщению на различные размеры объектов, соотношение сторон и контекст.

Этот пример демонстрирует разнообразие и сложность изображений в наборе данных COCO и преимущества использования мозаики в процессе обучения.

Цитаты и благодарности

Если ты используешь набор данных COCO в своих исследованиях или разработках, пожалуйста, ссылайся на следующую статью:

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Мы хотели бы выразить благодарность консорциуму COCO за создание и поддержку этого ценного ресурса для сообщества компьютерного зрения. Чтобы узнать больше о наборе данных COCO и его создателях, посети сайт COCO dataset.

ВОПРОСЫ И ОТВЕТЫ

Что такое набор данных COCO и почему он важен для компьютерного зрения?

The COCO dataset (Common Objects in Context) is a large-scale dataset used for object detection, segmentation, and captioning. It contains 330K images with detailed annotations for 80 object categories, making it essential for benchmarking and training computer vision models. Researchers use COCO due to its diverse categories and standardized evaluation metrics like mean Average Precision (mAP).

Как обучить модель YOLO , используя набор данных COCO?

To train a YOLO11 model using the COCO dataset, you can use the following code snippets:

Пример поезда

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco.yaml model=yolo11n.pt epochs=100 imgsz=640

Подробнее о доступных аргументах читай на странице "Обучение ".

Каковы ключевые особенности набора данных COCO?

Набор данных COCO включает в себя:

  • 330 тысяч изображений, из которых 200 тысяч аннотированы для обнаружения объектов, сегментации и создания надписей.
  • 80 категорий объектов, начиная от обычных предметов вроде машин и животных и заканчивая специфическими, вроде сумок и спортивного инвентаря.
  • Стандартизированные метрики оценки для обнаружения объектов (mAP) и сегментации (mean Average Recall, mAR).
  • Техника мозаики в обучающих партиях для улучшения обобщения модели на объектах разных размеров и контекстов.

Where can I find pretrained YOLO11 models trained on the COCO dataset?

Pretrained YOLO11 models on the COCO dataset can be downloaded from the links provided in the documentation. Examples include:

Эти модели различаются по размеру, mAP и скорости вычислений, предоставляя варианты для разных требований к производительности и ресурсам.

Как устроен набор данных COCO и как его использовать?

Набор данных COCO разбит на три подмножества:

  1. Поезд2017: 118K изображений для тренировки.
  2. Val2017: 5K изображений для проверки во время тренировки.
  3. Test2017: 20K изображений для бенчмаркинга обученных моделей. Результаты нужно отправить на сервер оценки COCO для оценки производительности.

YAML-файл конфигурации набора данных доступен по адресу coco.yaml, в нем определены пути, классы и детали набора данных.

📅 Created 11 months ago ✏️ Updated 18 days ago

Комментарии