L'ensemble de données COCO est divisé en trois sous-ensembles :
L'ensemble de données COCO est largement utilisé pour la formation et l'évaluation de modèles d'apprentissage profond dans la détection d'objets (tels que YOLO, Faster R-CNN et SSD), la segmentation d'instances (tels que Mask R-CNN) et la détection de points clés (tels que OpenPose). L'ensemble diversifié de catégories d'objets, le grand nombre d'images annotées et les métriques d'évaluation normalisées de l'ensemble de données en font une ressource essentielle pour les chercheurs et les praticiens de la vision par ordinateur.
Un fichier YAML (Yet Another Markup Language) est utilisé pour définir la configuration du jeu de données. Il contient des informations sur les chemins d'accès au jeu de données, les classes et d'autres informations pertinentes. Dans le cas du jeu de données COCO, le fichier YAML est un fichier de configuration. coco.yaml
est maintenu à https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml.
ultralytics/cfg/datasets/coco.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/detect/coco/
# Example usage: yolo train data=coco.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco ← downloads here (20.1 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
# Classes
names:
0: person
1: bicycle
2: car
3: motorcycle
4: airplane
5: bus
6: train
7: truck
8: boat
9: traffic light
10: fire hydrant
11: stop sign
12: parking meter
13: bench
14: bird
15: cat
16: dog
17: horse
18: sheep
19: cow
20: elephant
21: bear
22: zebra
23: giraffe
24: backpack
25: umbrella
26: handbag
27: tie
28: suitcase
29: frisbee
30: skis
31: snowboard
32: sports ball
33: kite
34: baseball bat
35: baseball glove
36: skateboard
37: surfboard
38: tennis racket
39: bottle
40: wine glass
41: cup
42: fork
43: knife
44: spoon
45: bowl
46: banana
47: apple
48: sandwich
49: orange
50: broccoli
51: carrot
52: hot dog
53: pizza
54: donut
55: cake
56: chair
57: couch
58: potted plant
59: bed
60: dining table
61: toilet
62: tv
63: laptop
64: mouse
65: remote
66: keyboard
67: cell phone
68: microwave
69: oven
70: toaster
71: sink
72: refrigerator
73: book
74: clock
75: vase
76: scissors
77: teddy bear
78: hair drier
79: toothbrush
# Download script/URL (optional)
download: |
from ultralytics.utils.downloads import download
from pathlib import Path
# Download labels
segments = True # segment or box labels
dir = Path(yaml['path']) # dataset root dir
url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')] # labels
download(urls, dir=dir.parent)
# Download data
urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
download(urls, dir=dir / 'images', threads=3)
Pour entraîner un modèle YOLO11n sur l'ensemble de données COCO pendant 100 époques avec une taille d'image de 640, tu peux utiliser les extraits de code suivants. Pour obtenir une liste complète des arguments disponibles, reporte-toi à la page Formation du modèle.
Exemple de train
L'ensemble de données COCO contient un ensemble varié d'images avec diverses catégories d'objets et des scènes complexes. Voici quelques exemples d'images tirées de l'ensemble de données, ainsi que les annotations correspondantes :
L'exemple montre la variété et la complexité des images de l'ensemble de données COCO et les avantages de l'utilisation du mosaïquage pendant le processus de formation.
Si tu utilises l'ensemble de données COCO dans tes travaux de recherche ou de développement, cite l'article suivant :
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Nous tenons à remercier le Consortium COCO pour avoir créé et maintenu cette ressource précieuse pour la communauté de la vision par ordinateur. Pour plus d'informations sur l'ensemble de données COCO et ses créateurs, visite le site Web de l'ensemble de données COCO.
L'ensemble de données COCO (Common Objects in Context) est un ensemble de données à grande échelle utilisé pour la détection, la segmentation et le sous-titrage d'objets. Il contient 330 000 images avec des annotations détaillées pour 80 catégories d'objets, ce qui le rend essentiel pour l'évaluation comparative et l'entraînement des modèles de vision par ordinateur. Les chercheurs utilisent COCO en raison de la diversité de ses catégories et de ses mesures d'évaluation normalisées telles que la précision moyenne (mAP).
Pour entraîner un modèle YOLO11 à l'aide de l'ensemble de données COCO, tu peux utiliser les extraits de code suivants :
Exemple de train
Reporte-toi à la page Formation pour plus de détails sur les arguments disponibles.
L'ensemble de données COCO comprend :
Les modèles YOLO11 pré-entraînés sur le jeu de données COCO peuvent être téléchargés à partir des liens fournis dans la documentation. Voici quelques exemples :
Ces modèles varient en taille, en mAP et en vitesse d'inférence, offrant des options pour différentes exigences en matière de performances et de ressources.
L'ensemble de données COCO est divisé en trois sous-ensembles :
Le fichier de configuration YAML du jeu de données est disponible à l'adresse coco.yaml, qui définit les chemins, les classes et les détails du jeu de données.