Ir al contenido

Conjunto de datos Caltech-101

El conjunto de datos Caltech-101 es un conjunto de datos ampliamente utilizado para tareas de reconocimiento de objetos, que contiene alrededor de 9.000 imágenes de 101 categorías de objetos. Las categorías se eligieron para reflejar una variedad de objetos del mundo real, y las propias imágenes se seleccionaron y anotaron cuidadosamente para proporcionar un punto de referencia desafiante para los algoritmos de reconocimiento de objetos.

Características principales

  • El conjunto de datos Caltech-101 comprende unas 9.000 imágenes en color divididas en 101 categorías.
  • Las categorías abarcan una gran variedad de objetos, como animales, vehículos, artículos domésticos y personas.
  • El número de imágenes por categoría varía, con unas 40 a 800 imágenes en cada categoría.
  • Las imágenes son de tamaño variable y, en su mayoría, de resolución media.
  • Caltech-101 se utiliza ampliamente para entrenamiento y pruebas en el campo del aprendizaje automático, en particular para tareas de reconocimiento de objetos.

Estructura del conjunto de datos

A diferencia de muchos otros conjuntos de datos, el conjunto de datos Caltech-101 no se divide formalmente en conjuntos de entrenamiento y de prueba. Los usuarios suelen crear sus propias divisiones en función de sus necesidades específicas. Sin embargo, una práctica habitual es utilizar un subconjunto aleatorio de imágenes para el entrenamiento (por ejemplo, 30 imágenes por categoría) y el resto de imágenes para las pruebas.

Aplicaciones

El conjunto de datos Caltech-101 se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo en tareas de reconocimiento de objetos, como redes neuronales convolucionales (CNN), máquinas de vectores de soporte (SVM) y otros algoritmos de aprendizaje automático. Su gran variedad de categorías e imágenes de alta calidad lo convierten en un excelente conjunto de datos para la investigación y el desarrollo en el campo del aprendizaje automático y la visión por ordenador.

Utilización

Para entrenar un modelo YOLO en el conjunto de datos Caltech-101 durante 100 épocas, puede utilizar los siguientes fragmentos de código. Para obtener una lista completa de los argumentos disponibles, consulte la página de entrenamiento del modelo.

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo classify train data=caltech101 model=yolo11n-cls.pt epochs=100 imgsz=416

Ejemplos de imágenes y anotaciones

El conjunto de datos Caltech-101 contiene imágenes en color de alta calidad de diversos objetos, lo que proporciona un conjunto de datos bien estructurado para tareas de reconocimiento de objetos. He aquí algunos ejemplos de imágenes del conjunto de datos:

Imagen de muestra del conjunto de datos

El ejemplo muestra la variedad y complejidad de los objetos del conjunto de datos Caltech-101, lo que subraya la importancia de disponer de un conjunto de datos diverso para entrenar modelos sólidos de reconocimiento de objetos.

Citas y agradecimientos

Si utiliza el conjunto de datos Caltech-101 en su trabajo de investigación o desarrollo, cite el siguiente documento:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Nos gustaría dar las gracias a Li Fei-Fei, Rob Fergus y Pietro Perona por crear y mantener el conjunto de datos Caltech-101 como un valioso recurso para la comunidad de investigación en aprendizaje automático y visión por ordenador. Para más información sobre el conjunto de datos Caltech-101 y sus creadores, visite el sitio web del conjunto de datos Caltech-101.

PREGUNTAS FRECUENTES

¿Para qué se utiliza el conjunto de datos Caltech-101 en el aprendizaje automático?

El conjunto de datos Caltech-101 se utiliza ampliamente en el aprendizaje automático para tareas de reconocimiento de objetos. Contiene unas 9.000 imágenes de 101 categorías, lo que supone un reto para la evaluación de algoritmos de reconocimiento de objetos. Los investigadores lo utilizan para entrenar y probar modelos, especialmente redes neuronales convolucionales (CNN) y máquinas de vectores de soporte (SVM), en visión por ordenador.

¿Cómo puedo entrenar un modelo Ultralytics YOLO en el conjunto de datos Caltech-101?

Para entrenar un modelo Ultralytics YOLO en el conjunto de datos Caltech-101, puede utilizar los fragmentos de código proporcionados. Por ejemplo, para entrenar durante 100 épocas:

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo classify train data=caltech101 model=yolo11n-cls.pt epochs=100 imgsz=416

Para obtener argumentos y opciones más detallados, consulte la página de formación del modelo.

¿Cuáles son las principales características del conjunto de datos Caltech-101?

El conjunto de datos Caltech-101 incluye:

  • Alrededor de 9.000 imágenes en color repartidas en 101 categorías.
  • Categorías que abarcan una amplia gama de objetos, incluidos animales, vehículos y artículos domésticos.
  • Número variable de imágenes por categoría, normalmente entre 40 y 800.
  • Tamaños de imagen variables, la mayoría de resolución media.

Estas características lo convierten en una opción excelente para entrenar y evaluar modelos de reconocimiento de objetos en aprendizaje automático y visión por ordenador.

¿Por qué debería citar el conjunto de datos Caltech-101 en mi investigación?

Al citar el conjunto de datos Caltech-101 en su investigación, reconoce las contribuciones de los creadores y proporciona una referencia para otros que puedan utilizar el conjunto de datos. La cita recomendada es:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Citar contribuye a mantener la integridad del trabajo académico y ayuda a los compañeros a localizar el recurso original.

¿Puedo utilizar Ultralytics HUB para entrenar modelos en el conjunto de datos Caltech-101?

Sí, puede utilizar Ultralytics HUB para entrenar modelos en el conjunto de datos Caltech-101. Ultralytics HUB proporciona una plataforma intuitiva para gestionar conjuntos de datos, entrenar modelos y desplegarlos sin necesidad de una codificación exhaustiva. Para obtener una guía detallada, consulte la entrada del blog Cómo entrenar sus modelos personalizados con Ultralytics HUB.

Creado hace 1 año ✏️ Actualizado hace 2 meses

Comentarios