Set di dati COCO
Il dataset COCO (Common Objects in Context) è un dataset su larga scala per il rilevamento, la segmentazione e l'inserimento di didascalie di oggetti. È stato progettato per incoraggiare la ricerca su un'ampia varietà di categorie di oggetti ed è comunemente utilizzato per il benchmarking dei modelli di computer vision. È un set di dati essenziale per i ricercatori e gli sviluppatori che lavorano al rilevamento, alla segmentazione e alla stima della posa degli oggetti.
Guarda: Ultralytics Panoramica del set di dati COCO
Modelli preaddestrati COCO
Modello | dimensione (pixel) |
mAPval 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Caratteristiche principali
- COCO contiene 330K immagini, di cui 200K con annotazioni per il rilevamento di oggetti, la segmentazione e le didascalie.
- Il set di dati comprende 80 categorie di oggetti, tra cui oggetti comuni come automobili, biciclette e animali, oltre a categorie più specifiche come ombrelli, borse e attrezzature sportive.
- Le annotazioni comprendono riquadri di delimitazione degli oggetti, maschere di segmentazione e didascalie per ogni immagine.
- COCO fornisce metriche di valutazione standardizzate come la precisione media (mAP) per il rilevamento degli oggetti e il richiamo medio (mAR) per le attività di segmentazione, rendendole adatte a confrontare le prestazioni dei modelli.
Struttura del set di dati
Il set di dati COCO è suddiviso in tre sottoinsiemi:
- Train2017: Questo sottoinsieme contiene 118K immagini per l'addestramento dei modelli di rilevamento, segmentazione e didascalia degli oggetti.
- Val2017: Questo sottoinsieme contiene 5K immagini utilizzate per la convalida durante l'addestramento del modello.
- Test2017: Questo sottoinsieme è costituito da 20.000 immagini utilizzate per il test e il benchmarking dei modelli addestrati. Le annotazioni di verità a terra per questo sottoinsieme non sono disponibili pubblicamente e i risultati vengono inviati al server di valutazione COCO per la valutazione delle prestazioni.
Applicazioni
Il dataset COCO è ampiamente utilizzato per l'addestramento e la valutazione di modelli di deep learning nel rilevamento di oggetti (come YOLO, Faster R-CNN e SSD), nella segmentazione di istanze (come Mask R-CNN) e nel rilevamento di punti chiave (come OpenPose). La varietà di categorie di oggetti, l'elevato numero di immagini annotate e le metriche di valutazione standardizzate rendono il dataset una risorsa essenziale per i ricercatori e i professionisti della computer vision.
Set di dati YAML
Un file YAML (Yet Another Markup Language) è usato per definire la configurazione del dataset. Contiene informazioni sui percorsi del dataset, sulle classi e altre informazioni rilevanti. Nel caso del set di dati COCO, il file coco.yaml
Il file viene mantenuto all'indirizzo https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml.
ultralytics/cfg/datasets/coco.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO 2017 dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/detect/coco/
# Example usage: yolo train data=coco.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco ← downloads here (20.1 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco # dataset root dir
train: train2017.txt # train images (relative to 'path') 118287 images
val: val2017.txt # val images (relative to 'path') 5000 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
# Classes
names:
0: person
1: bicycle
2: car
3: motorcycle
4: airplane
5: bus
6: train
7: truck
8: boat
9: traffic light
10: fire hydrant
11: stop sign
12: parking meter
13: bench
14: bird
15: cat
16: dog
17: horse
18: sheep
19: cow
20: elephant
21: bear
22: zebra
23: giraffe
24: backpack
25: umbrella
26: handbag
27: tie
28: suitcase
29: frisbee
30: skis
31: snowboard
32: sports ball
33: kite
34: baseball bat
35: baseball glove
36: skateboard
37: surfboard
38: tennis racket
39: bottle
40: wine glass
41: cup
42: fork
43: knife
44: spoon
45: bowl
46: banana
47: apple
48: sandwich
49: orange
50: broccoli
51: carrot
52: hot dog
53: pizza
54: donut
55: cake
56: chair
57: couch
58: potted plant
59: bed
60: dining table
61: toilet
62: tv
63: laptop
64: mouse
65: remote
66: keyboard
67: cell phone
68: microwave
69: oven
70: toaster
71: sink
72: refrigerator
73: book
74: clock
75: vase
76: scissors
77: teddy bear
78: hair drier
79: toothbrush
# Download script/URL (optional)
download: |
from ultralytics.utils.downloads import download
from pathlib import Path
# Download labels
segments = True # segment or box labels
dir = Path(yaml['path']) # dataset root dir
url = 'https://github.com/ultralytics/assets/releases/download/v0.0.0/'
urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')] # labels
download(urls, dir=dir.parent)
# Download data
urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
download(urls, dir=dir / 'images', threads=3)
Utilizzo
Per addestrare un modello YOLO11n sul dataset COCO per 100 epoche con una dimensione dell'immagine di 640, è possibile utilizzare i seguenti frammenti di codice. Per un elenco completo degli argomenti disponibili, consultare la pagina di addestramento del modello.
Esempio di treno
Immagini di esempio e annotazioni
Il dataset COCO contiene un insieme eterogeneo di immagini con varie categorie di oggetti e scene complesse. Ecco alcuni esempi di immagini tratte dal dataset, con le relative annotazioni:
- Immagine a mosaico: Questa immagine mostra un batch di addestramento composto da immagini del dataset mosaicate. La mosaicatura è una tecnica utilizzata durante l'addestramento che combina più immagini in un'unica immagine per aumentare la varietà di oggetti e scene all'interno di ciascun batch di addestramento. Ciò contribuisce a migliorare la capacità del modello di generalizzarsi a oggetti di dimensioni, rapporti di aspetto e contesti diversi.
L'esempio mostra la varietà e la complessità delle immagini del dataset COCO e i vantaggi dell'uso della mosaicatura durante il processo di addestramento.
Citazioni e ringraziamenti
Se utilizzate il set di dati COCO nel vostro lavoro di ricerca o sviluppo, siete pregati di citare il seguente documento:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Desideriamo ringraziare il Consorzio COCO per aver creato e mantenuto questa preziosa risorsa per la comunità della computer vision. Per ulteriori informazioni sul dataset COCO e sui suoi creatori, visitare il sito web del dataset COCO.
FAQ
Che cos'è il dataset COCO e perché è importante per la computer vision?
Il dataset COCO (Common Objects in Context) è un dataset su larga scala utilizzato per il rilevamento, la segmentazione e la didascalia degli oggetti. Contiene 330.000 immagini con annotazioni dettagliate per 80 categorie di oggetti, che lo rendono essenziale per il benchmarking e l'addestramento dei modelli di computer vision. I ricercatori utilizzano COCO per le sue diverse categorie e per le metriche di valutazione standardizzate come la precisione media (mAP).
Come si può addestrare un modello YOLO utilizzando il dataset COCO?
Per addestrare un modello YOLO11 utilizzando il dataset COCO, è possibile utilizzare i seguenti frammenti di codice:
Esempio di treno
Per maggiori dettagli sugli argomenti disponibili, consultare la pagina Formazione.
Quali sono le caratteristiche principali del dataset COCO?
Il set di dati COCO comprende:
- 330K immagini, di cui 200K annotate per il rilevamento degli oggetti, la segmentazione e la didascalia.
- 80 categorie di oggetti, da quelli più comuni come automobili e animali a quelli più specifici come borse e attrezzature sportive.
- Metriche di valutazione standardizzate per il rilevamento degli oggetti (mAP) e la segmentazione (mean Average Recall, mAR).
- Tecnica di mosaicatura nei batch di addestramento per migliorare la generalizzazione del modello tra oggetti di varie dimensioni e contesti.
Dove è possibile trovare modelli preaddestrati YOLO11 addestrati sul dataset COCO?
I modelli preaddestrati di YOLO11 sul set di dati COCO possono essere scaricati dai link forniti nella documentazione. Gli esempi includono:
Questi modelli variano in termini di dimensioni, mAP e velocità di inferenza, offrendo opzioni per soddisfare diversi requisiti di prestazioni e risorse.
Come è strutturato il dataset COCO e come si usa?
Il set di dati COCO è suddiviso in tre sottoinsiemi:
- Train2017: 118K immagini per la formazione.
- Val2017: 5K immagini per la convalida durante l'addestramento.
- Test2017: 20K immagini per il benchmarking dei modelli addestrati. I risultati devono essere inviati al server di valutazione COCO per la valutazione delle prestazioni.
Il file di configurazione YAML del dataset è disponibile all'indirizzo coco.yaml, che definisce percorsi, classi e dettagli del dataset.