Skip to content

Ensemble de données COCO8

Introduction

Ultralytics COCO8 est un ensemble de données de détection d'objets, petit mais polyvalent, composé des 8 premières images de l'ensemble COCO train 2017, 4 pour l'entraînement et 4 pour la validation. Cet ensemble de données est idéal pour tester et déboguer les modèles de détection d'objets, ou pour expérimenter de nouvelles approches de détection. Avec 8 images, il est suffisamment petit pour être facilement gérable, tout en étant suffisamment diversifié pour tester les pipelines d'entraînement à la recherche d'erreurs et agir comme un contrôle d'assainissement avant d'entraîner des ensembles de données plus importants.



Regarder : Ultralytics Aperçu de l'ensemble de données COCO

Ce jeu de données est destiné à être utilisé avec Ultralytics HUB et YOLO11.

Jeu de données YAML

Un fichier YAML (Yet Another Markup Language) est utilisé pour définir la configuration du jeu de données. Il contient des informations sur les chemins d'accès au jeu de données, les classes et d'autres informations pertinentes. Dans le cas du jeu de données COCO8, le fichier coco8.yaml est conservé à l'adresse suivante https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco8.yaml.

ultralytics/cfg/datasets/coco8.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# COCO8 dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/detect/coco8/
# Example usage: yolo train data=coco8.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco8  ← downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/coco8 # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8.zip

Utilisation

Pour entraîner un modèle YOLO11n sur l'ensemble de données COCO8 pour 100 époques avec une taille d'image de 640, vous pouvez utiliser les extraits de code suivants. Pour une liste complète des arguments disponibles, reportez-vous à la page Entraînement du modèle.

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

Exemples d'images et d'annotations

Voici quelques exemples d'images tirées de l'ensemble de données COCO8, ainsi que les annotations correspondantes :

Image de l'échantillon de l'ensemble de données

  • Image mosaïque: Cette image montre un lot d'entraînement composé d'images de données mosaïquées. La mosaïque est une technique utilisée pendant l'apprentissage qui combine plusieurs images en une seule afin d'augmenter la variété des objets et des scènes dans chaque lot d'apprentissage. Cela permet d'améliorer la capacité du modèle à s'adapter à différentes tailles d'objets, à différents rapports d'aspect et à différents contextes.

Cet exemple illustre la variété et la complexité des images de l'ensemble de données COCO8 et les avantages de l'utilisation du mosaïquage au cours du processus de formation.

Citations et remerciements

Si vous utilisez l'ensemble de données COCO dans vos travaux de recherche ou de développement, veuillez citer l'article suivant :

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Nous tenons à remercier le Consortium COCO pour la création et la maintenance de cette ressource précieuse pour la communauté de la vision par ordinateur. Pour plus d'informations sur l'ensemble de données COCO et ses créateurs, visitez le site web de l'ensemble de données COCO.

FAQ

À quoi sert l'ensemble de données Ultralytics COCO8 ?

L'ensemble de données Ultralytics COCO8 est un ensemble de données de détection d'objets compact mais polyvalent, composé des 8 premières images de l'ensemble COCO train 2017, avec 4 images pour l'entraînement et 4 pour la validation. Il est conçu pour tester et déboguer les modèles de détection d'objets et pour expérimenter de nouvelles approches de détection. Malgré sa petite taille, COCO8 offre suffisamment de diversité pour servir de contrôle de santé pour vos pipelines d'entraînement avant de déployer des ensembles de données plus importants. Pour plus de détails, consultez le jeu de données COCO8.

Comment entraîner un modèle YOLO11 à l'aide de l'ensemble de données COCO8 ?

Pour entraîner un modèle YOLO11 à l'aide de l'ensemble de données COCO8, vous pouvez utiliser les commandes Python ou CLI . Voici comment commencer :

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

Pour une liste complète des arguments disponibles, voir la page Formation au modèle.

Pourquoi devrais-je utiliser Ultralytics HUB pour gérer ma formation COCO8 ?

Ultralytics HUB est un outil web tout-en-un conçu pour simplifier la formation et le déploiement des modèles YOLO , y compris les modèles Ultralytics YOLO11 sur le jeu de données COCO8. Il offre une formation en nuage, un suivi en temps réel et une gestion transparente des ensembles de données. HUB vous permet de commencer l'entraînement en un seul clic et évite les complexités des configurations manuelles. Découvrez plus en détail Ultralytics HUB et ses avantages.

Quels sont les avantages de l'utilisation de l'augmentation de la mosaïque dans la formation avec le jeu de données COCO8 ?

L'augmentation mosaïque, démontrée dans l'ensemble de données COCO8, combine plusieurs images en une seule image pendant la formation. Cette technique augmente la variété des objets et des scènes dans chaque lot d'entraînement, améliorant ainsi la capacité du modèle à se généraliser à différentes tailles d'objets, à différents rapports d'aspect et à différents contextes. Il en résulte un modèle de détection d'objets plus robuste. Pour plus de détails, consultez le guide de formation.

Comment puis-je valider mon modèle YOLO11 formé sur l'ensemble de données COCO8 ?

La validation de votre modèle YOLO11 entraîné sur l'ensemble de données COCO8 peut être effectuée à l'aide des commandes de validation du modèle. Vous pouvez invoquer le mode de validation via le script CLI ou Python pour évaluer les performances du modèle à l'aide de métriques précises. Pour des instructions détaillées, visitez la page Validation.

📅C réé il y a 1 an ✏️ Mis à jour il y a 2 mois

Commentaires