Skip to content

Ensemble de données Caltech-101

L'ensemble de données Caltech-101 est un ensemble de données largement utilisé pour les tâches de reconnaissance d'objets, contenant environ 9 000 images de 101 catégories d'objets. Les catégories ont été choisies pour refléter une variété d'objets du monde réel, et les images elles-mêmes ont été soigneusement sélectionnées et annotées pour fournir une référence difficile aux algorithmes de reconnaissance d'objets.

Caractéristiques principales

  • L'ensemble de donnĂ©es Caltech-101 comprend environ 9 000 images couleur rĂ©parties en 101 catĂ©gories.
  • Les catĂ©gories englobent une grande variĂ©tĂ© d'objets, notamment des animaux, des vĂ©hicules, des articles mĂ©nagers et des personnes.
  • Le nombre d'images par catĂ©gorie varie, avec environ 40 Ă  800 images dans chaque catĂ©gorie.
  • Les images sont de taille variable, la plupart d'entre elles Ă©tant de rĂ©solution moyenne.
  • Caltech-101 est largement utilisĂ© pour la formation et les tests dans le domaine de l'apprentissage automatique, en particulier pour les tâches de reconnaissance d'objets.

Structure de l'ensemble de données

Contrairement à de nombreux autres ensembles de données, l'ensemble de données Caltech-101 n'est pas formellement divisé en ensembles de formation et de test. Les utilisateurs créent généralement leurs propres divisions en fonction de leurs besoins spécifiques. Cependant, une pratique courante consiste à utiliser un sous-ensemble aléatoire d'images pour l'entraînement (par exemple, 30 images par catégorie) et les images restantes pour les tests.

Applications

L'ensemble de données Caltech-101 est largement utilisé pour la formation et l'évaluation de modèles d'apprentissage profond dans les tâches de reconnaissance d'objets, tels que les réseaux neuronaux convolutifs (CNN), les machines à vecteurs de support (SVM) et divers autres algorithmes d'apprentissage automatique. Sa grande variété de catégories et ses images de haute qualité en font un excellent ensemble de données pour la recherche et le développement dans le domaine de l'apprentissage automatique et de la vision par ordinateur.

Utilisation

Pour entraîner un modèle YOLO sur l'ensemble de données Caltech-101 pendant 100 époques, tu peux utiliser les extraits de code suivants. Pour obtenir une liste complète des arguments disponibles, reporte-toi à la page Formation du modèle.

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Exemples d'images et d'annotations

L'ensemble de données Caltech-101 contient des images couleur de haute qualité de divers objets, ce qui constitue un ensemble de données bien structuré pour les tâches de reconnaissance d'objets. Voici quelques exemples d'images tirées de l'ensemble de données :

Image de l'échantillon du jeu de données

L'exemple présente la variété et la complexité des objets de l'ensemble de données Caltech-101, soulignant l'importance d'un ensemble de données diversifié pour former des modèles de reconnaissance d'objets robustes.

Citations et remerciements

Si tu utilises le jeu de données Caltech-101 dans tes travaux de recherche ou de développement, merci de citer l'article suivant :

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Nous tenons à remercier Li Fei-Fei, Rob Fergus et Pietro Perona pour la création et la maintenance de l'ensemble de données Caltech-101, qui constitue une ressource précieuse pour la communauté des chercheurs en apprentissage automatique et en vision par ordinateur. Pour plus d'informations sur l'ensemble de données Caltech-101 et ses créateurs, visite le site Web de l'ensemble de données Caltech-101.

FAQ

À quoi sert l'ensemble de données Caltech-101 dans l'apprentissage automatique ?

L'ensemble de données Caltech-101 est largement utilisé dans l'apprentissage automatique pour les tâches de reconnaissance d'objets. Il contient environ 9 000 images réparties en 101 catégories, ce qui constitue une référence difficile pour l'évaluation des algorithmes de reconnaissance d'objets. Les chercheurs s'en servent pour former et tester des modèles, en particulier les réseaux neuronaux convolutifs (CNN) et les machines à vecteurs de support (SVM), dans le domaine de la vision artificielle.

Comment puis-je entraîner un modèle Ultralytics YOLO sur l'ensemble de données Caltech-101 ?

Pour entraîner un modèle Ultralytics YOLO sur l'ensemble de données Caltech-101, tu peux utiliser les extraits de code fournis. Par exemple, pour un entraînement de 100 époques :

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Pour des arguments et des options plus détaillés, reporte-toi à la page Formation au modèle.

Quelles sont les principales caractéristiques de l'ensemble de données Caltech-101 ?

L'ensemble de données Caltech-101 comprend : - Environ 9 000 images en couleur réparties en 101 catégories. - Les catégories couvrent une gamme variée d'objets, notamment des animaux, des véhicules et des articles ménagers. - Un nombre variable d'images par catégorie, généralement entre 40 et 800. - Des images de taille variable, la plupart étant de résolution moyenne.

Ces caractéristiques en font un excellent choix pour la formation et l'évaluation des modèles de reconnaissance d'objets dans le cadre de l'apprentissage automatique et de la vision par ordinateur.

Pourquoi devrais-je citer l'ensemble de données Caltech-101 dans ma recherche ?

En citant le jeu de données Caltech-101 dans tes recherches, tu reconnais les contributions des créateurs et tu fournis une référence aux autres personnes qui pourraient utiliser le jeu de données. La citation recommandée est la suivante :

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

La citation permet de maintenir l'intégrité du travail universitaire et aide les pairs à localiser la ressource originale.

Puis-je utiliser Ultralytics HUB pour former des modèles sur l'ensemble de données Caltech-101 ?

Oui, tu peux utiliser Ultralytics HUB pour former des modèles sur le jeu de données Caltech-101. Ultralytics HUB fournit une plateforme intuitive pour gérer les ensembles de données, former des modèles et les déployer sans avoir à coder de manière approfondie. Pour obtenir un guide détaillé, reporte-toi à l'article de blog Comment former tes modèles personnalisés avec Ultralytics HUB.



Créé le 2023-11-12, Mis à jour le 2024-07-04
Auteurs : glenn-jocher (6)

Commentaires