Skip to content

Ensemble de données COCO8

Introduction

Ultralytics COCO8 est un ensemble de données de détection d'objets petit, mais polyvalent, composé des 8 premières images de l'ensemble COCO train 2017, 4 pour l'entraînement et 4 pour la validation. Cet ensemble de données est idéal pour tester et déboguer les modèles de détection d'objets, ou pour expérimenter de nouvelles approches de détection. Avec 8 images, il est suffisamment petit pour être facilement gérable, tout en étant assez diversifié pour tester les pipelines de formation à la recherche d'erreurs et servir de contrôle d'assainissement avant de former des ensembles de données plus importants.



Regarde : Ultralytics Aperçu de l'ensemble de données COCO

Cet ensemble de données est destiné à être utilisé avec Ultralytics HUB et YOLOv8.

Jeu de données YAML

Un fichier YAML (Yet Another Markup Language) est utilisé pour définir la configuration du jeu de données. Il contient des informations sur les chemins d'accès au jeu de données, les classes et d'autres informations pertinentes. Dans le cas du jeu de données COCO8, le fichier YAML est un fichier de configuration. coco8.yaml est maintenu à https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml.

ultralytics/cfg/datasets/coco8.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO8 dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/detect/coco8/
# Example usage: yolo train data=coco8.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco8  ← downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8 # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8.zip

Utilisation

Pour entraîner un modèle YOLOv8n sur l'ensemble de données COCO8 pour 100 époques avec une taille d'image de 640, tu peux utiliser les extraits de code suivants. Pour obtenir une liste complète des arguments disponibles, reporte-toi à la page Formation du modèle.

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

Exemples d'images et d'annotations

Voici quelques exemples d'images tirées de l'ensemble de données COCO8, ainsi que les annotations correspondantes :

Image de l'échantillon du jeu de données

  • Image mosaïque: Cette image montre un lot d'entraînement composé d'images de données mosaïquées. La mosaïque est une technique utilisée pendant la formation qui combine plusieurs images en une seule afin d'augmenter la variété d'objets et de scènes dans chaque lot de formation. Cela permet d'améliorer la capacité du modèle à s'adapter à différentes tailles d'objets, à différents rapports d'aspect et à différents contextes.

L'exemple montre la variété et la complexité des images de l'ensemble de données COCO8 et les avantages de l'utilisation du mosaïquage pendant le processus de formation.

Citations et remerciements

Si tu utilises l'ensemble de données COCO dans tes travaux de recherche ou de développement, cite l'article suivant :

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Nous tenons à remercier le Consortium COCO pour avoir créé et maintenu cette ressource précieuse pour la communauté de la vision par ordinateur. Pour plus d'informations sur l'ensemble de données COCO et ses créateurs, visite le site Web de l'ensemble de données COCO.

FAQ

À quoi sert l'ensemble de données Ultralytics COCO8 ?

L'ensemble de données Ultralytics COCO8 est un ensemble de données de détection d'objets compact mais polyvalent, composé des 8 premières images de l'ensemble COCO train 2017, avec 4 images pour l'entraînement et 4 pour la validation. Il est conçu pour tester et déboguer les modèles de détection d'objets et expérimenter de nouvelles approches de détection. Malgré sa petite taille, COCO8 offre suffisamment de diversité pour servir de contrôle de santé pour tes pipelines d'entraînement avant de déployer des ensembles de données plus importants. Pour plus de détails, voir l'ensemble de données COCO8.

Comment entraîner un modèle YOLOv8 à l'aide de l'ensemble de données COCO8 ?

Pour entraîner un modèle YOLOv8 à l'aide de l'ensemble de données COCO8, tu peux utiliser les commandes Python ou CLI . Voici comment tu peux commencer :

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

Pour obtenir une liste complète des arguments disponibles, reporte-toi à la page Formation au modèle.

Pourquoi devrais-je utiliser Ultralytics HUB pour gérer ma formation COCO8 ?

Ultralytics HUB est un outil web tout-en-un conçu pour simplifier la formation et le déploiement des modèles YOLO , notamment les modèles Ultralytics YOLOv8 sur l'ensemble de données COCO8. Il offre une formation dans le nuage, un suivi en temps réel et une gestion transparente des jeux de données. HUB permet de commencer la formation en un seul clic et évite les complexités des configurations manuelles. Découvre plus en détail Ultralytics HUB et ses avantages.

Quels sont les avantages de l'utilisation de l'augmentation de la mosaïque dans la formation avec l'ensemble de données COCO8 ?

L'augmentation mosaïque, démontrée dans l'ensemble de données COCO8, combine plusieurs images en une seule image pendant la formation. Cette technique augmente la variété des objets et des scènes dans chaque lot d'entraînement, améliorant ainsi la capacité du modèle à se généraliser à travers différentes tailles d'objets, différents rapports d'aspect et différents contextes. Il en résulte un modèle de détection d'objets plus robuste. Pour plus de détails, reporte-toi au guide de formation.

Comment puis-je valider mon modèle YOLOv8 formé sur l'ensemble de données COCO8 ?

La validation de ton modèle YOLOv8 formé sur l'ensemble de données COCO8 peut être effectuée à l'aide des commandes de validation du modèle. Tu peux invoquer le mode de validation via le script CLI ou Python pour évaluer les performances du modèle à l'aide de mesures précises. Pour obtenir des instructions détaillées, visite la page Validation.



Créé le 2023-11-12, Mis à jour le 2024-07-04
Auteurs : glenn-jocher (7), RizwanMunawar (1), Laughing-q (1)

Commentaires