Saltar al contenido

Conjunto de datos Caltech-101

El conjunto de datos Caltech-101 es un conjunto de datos muy utilizado para tareas de reconocimiento de objetos, que contiene unas 9.000 imágenes de 101 categorías de objetos. Las categorías se eligieron para reflejar una variedad de objetos del mundo real, y las propias imágenes se seleccionaron y anotaron cuidadosamente para proporcionar un punto de referencia desafiante para los algoritmos de reconocimiento de objetos.

Características principales

  • El conjunto de datos Caltech-101 comprende unas 9.000 imágenes en color divididas en 101 categorías.
  • Las categorías abarcan una gran variedad de objetos, como animales, vehículos, artículos domésticos y personas.
  • El número de imágenes por categoría varía, con unas 40 a 800 imágenes en cada categoría.
  • Las imágenes son de tamaño variable, y la mayoría son de resolución media.
  • El Caltech-101 se utiliza ampliamente para entrenamiento y pruebas en el campo del aprendizaje automático, en particular para tareas de reconocimiento de objetos.

Estructura del conjunto de datos

A diferencia de muchos otros conjuntos de datos, el conjunto de datos Caltech-101 no se divide formalmente en conjuntos de entrenamiento y de prueba. Los usuarios suelen crear sus propias divisiones en función de sus necesidades específicas. Sin embargo, una práctica habitual es utilizar un subconjunto aleatorio de imágenes para el entrenamiento (por ejemplo, 30 imágenes por categoría) y el resto de imágenes para las pruebas.

Aplicaciones

El conjunto de datos Caltech-101 se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo en tareas de reconocimiento de objetos, como redes neuronales convolucionales (CNN), máquinas de vectores de soporte (SVM) y otros algoritmos de aprendizaje automático. Su gran variedad de categorías e imágenes de alta calidad lo convierten en un excelente conjunto de datos para la investigación y el desarrollo en el campo del aprendizaje automático y la visión por ordenador.

Utilización

Para entrenar un modelo YOLO en el conjunto de datos Caltech-101 durante 100 épocas, puedes utilizar los siguientes fragmentos de código. Para obtener una lista completa de los argumentos disponibles, consulta la página Entrenamiento del modelo.

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-cls.pt')  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data='caltech101', epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Ejemplos de imágenes y anotaciones

El conjunto de datos Caltech-101 contiene imágenes en color de alta calidad de diversos objetos, lo que proporciona un conjunto de datos bien estructurado para tareas de reconocimiento de objetos. Aquí tienes algunos ejemplos de imágenes del conjunto de datos:

Imagen de muestra del conjunto de datos

El ejemplo muestra la variedad y complejidad de los objetos del conjunto de datos Caltech-101, lo que subraya la importancia de un conjunto de datos diverso para entrenar modelos robustos de reconocimiento de objetos.

Citas y agradecimientos

Si utilizas el conjunto de datos Caltech-101 en tu trabajo de investigación o desarrollo, cita el siguiente documento:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Queremos dar las gracias a Li Fei-Fei, Rob Fergus y Pietro Perona por crear y mantener el conjunto de datos Caltech-101 como un valioso recurso para la comunidad investigadora del aprendizaje automático y la visión por ordenador. Para más información sobre el conjunto de datos Caltech-101 y sus creadores, visita el sitio web del conjunto de datos Caltech-101.



Creado 2023-11-12, Actualizado 2023-11-22
Autores: glenn-jocher (3)

Comentarios