COCO8-Datensatz
Einführung
Ultralytics COCO8 ist ein kleiner, aber vielseitiger Objekterkennungsdatensatz, der aus den ersten 8 Bildern des COCO train 2017 Sets besteht, 4 für das Training und 4 für die Validierung. Dieser Datensatz ist ideal zum Testen und Debuggen von Objekterkennungsmodellen oder zum Experimentieren mit neuen Erkennungsansätzen. Mit 8 Bildern ist er klein genug, um leicht verwaltet werden zu können, und dennoch vielfältig genug, um die Trainingspipelines auf Fehler zu testen und als Sicherheitscheck vor dem Training größerer Datensätze zu dienen.
Pass auf: Ultralytics COCO-Datensatz Übersicht
Dieser Datensatz ist für die Verwendung mit Ultralytics HUB und YOLOv8.
Datensatz YAML
Eine YAML-Datei (Yet Another Markup Language) wird verwendet, um die Konfiguration des Datensatzes zu definieren. Sie enthält Informationen über die Pfade des Datensatzes, Klassen und andere relevante Informationen. Im Fall des COCO8-Datensatzes ist die coco8.yaml
Datei wird verwaltet unter https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml.
ultralytics/cfg/datasets/coco8.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO8 dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/detect/coco8/
# Example usage: yolo train data=coco8.yaml
# parent
# ├── ultralytics
# └── datasets
# └── coco8 ← downloads here (1 MB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8 # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)
# Classes
names:
0: person
1: bicycle
2: car
3: motorcycle
4: airplane
5: bus
6: train
7: truck
8: boat
9: traffic light
10: fire hydrant
11: stop sign
12: parking meter
13: bench
14: bird
15: cat
16: dog
17: horse
18: sheep
19: cow
20: elephant
21: bear
22: zebra
23: giraffe
24: backpack
25: umbrella
26: handbag
27: tie
28: suitcase
29: frisbee
30: skis
31: snowboard
32: sports ball
33: kite
34: baseball bat
35: baseball glove
36: skateboard
37: surfboard
38: tennis racket
39: bottle
40: wine glass
41: cup
42: fork
43: knife
44: spoon
45: bowl
46: banana
47: apple
48: sandwich
49: orange
50: broccoli
51: carrot
52: hot dog
53: pizza
54: donut
55: cake
56: chair
57: couch
58: potted plant
59: bed
60: dining table
61: toilet
62: tv
63: laptop
64: mouse
65: remote
66: keyboard
67: cell phone
68: microwave
69: oven
70: toaster
71: sink
72: refrigerator
73: book
74: clock
75: vase
76: scissors
77: teddy bear
78: hair drier
79: toothbrush
# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8.zip
Verwendung
Um ein YOLOv8n Modell auf dem COCO8-Datensatz für 100 Epochen mit einer Bildgröße von 640 zu trainieren, kannst du die folgenden Codeschnipsel verwenden. Eine umfassende Liste der verfügbaren Argumente findest du auf der Seite Modelltraining.
Beispiel für einen Zug
Beispielbilder und Anmerkungen
Hier sind einige Beispiele für Bilder aus dem COCO8-Datensatz, zusammen mit den entsprechenden Anmerkungen:
- Mosaikbild: Dieses Bild zeigt einen Trainingsstapel, der aus Mosaikbildern des Datensatzes besteht. Beim Mosaikieren werden mehrere Bilder zu einem einzigen Bild zusammengefügt, um die Vielfalt der Objekte und Szenen in jedem Trainingsstapel zu erhöhen. Dadurch wird die Fähigkeit des Modells verbessert, sich auf verschiedene Objektgrößen, Seitenverhältnisse und Kontexte einzustellen.
Das Beispiel zeigt die Vielfalt und Komplexität der Bilder im COCO8-Datensatz und die Vorteile der Mosaikbildung im Trainingsprozess.
Zitate und Danksagungen
Wenn du den COCO-Datensatz in deiner Forschungs- oder Entwicklungsarbeit verwendest, zitiere bitte das folgende Papier:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Wir möchten dem COCO-Konsortium für die Erstellung und Pflege dieser wertvollen Ressource für die Computer Vision Community danken. Weitere Informationen über den COCO-Datensatz und seine Schöpfer findest du auf der Website des COCO-Datensatzes.
FAQ
Wofür wird der Ultralytics COCO8-Datensatz verwendet?
Der Ultralytics COCO8-Datensatz ist ein kompakter und dennoch vielseitiger Objektdetektionsdatensatz, der aus den ersten 8 Bildern des COCO-Trainingsdatensatzes 2017 besteht, wobei 4 Bilder zum Training und 4 zur Validierung dienen. Er ist für das Testen und Debuggen von Objekterkennungsmodellen und das Experimentieren mit neuen Erkennungsansätzen gedacht. Trotz seines geringen Umfangs bietet COCO8 genug Vielfalt, um deine Trainingspipelines auf Herz und Nieren zu prüfen, bevor du größere Datensätze einsetzt. Weitere Details findest du im COCO8-Datensatz.
Wie trainiere ich ein YOLOv8 Modell mit dem COCO8-Datensatz?
Um ein YOLOv8 Modell mit dem COCO8-Datensatz zu trainieren, kannst du die Befehle Python oder CLI verwenden. So kannst du anfangen:
Beispiel für einen Zug
Eine umfassende Liste der verfügbaren Argumente findest du auf der Seite Modellschulung.
Warum sollte ich Ultralytics HUB für die Verwaltung meiner COCO8-Ausbildung nutzen?
Ultralytics HUB ist ein All-in-One-Webtool, das das Training und den Einsatz von YOLO Modellen, einschließlich der Ultralytics YOLOv8 Modelle auf dem COCO8-Datensatz, vereinfacht. Es bietet Cloud-Training, Echtzeit-Tracking und eine nahtlose Datensatzverwaltung. Mit HUB kannst du das Training mit einem einzigen Klick starten und vermeidest die Komplexität der manuellen Einstellungen. Erfahre mehr über Ultralytics HUB und seine Vorteile.
Was sind die Vorteile der Mosaik-Erweiterung beim Training mit dem COCO8-Datensatz?
Bei der Mosaik-Erweiterung, die im COCO8-Datensatz demonstriert wurde, werden beim Training mehrere Bilder zu einem einzigen Bild kombiniert. Diese Technik erhöht die Vielfalt der Objekte und Szenen in jedem Trainingsstapel und verbessert die Fähigkeit des Modells, über verschiedene Objektgrößen, Seitenverhältnisse und Kontexte hinweg zu generalisieren. Das Ergebnis ist ein robusteres Objekterkennungsmodell. Weitere Informationen findest du in der Trainingsanleitung.
Wie kann ich mein YOLOv8 Modell, das auf dem COCO8-Datensatz trainiert wurde, validieren?
Die Validierung deines YOLOv8 Modells, das mit dem COCO8-Datensatz trainiert wurde, kannst du mit den Validierungsbefehlen des Modells durchführen. Du kannst den Validierungsmodus über das Skript CLI oder Python aufrufen, um die Leistung des Modells anhand präziser Metriken zu bewerten. Eine ausführliche Anleitung findest du auf der Seite Validierung.
Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (7), RizwanMunawar (1), Laughing-q (1)