Saltar al contenido

Conjunto de datos Caltech-101

El conjunto de datos Caltech-101 es un conjunto de datos muy utilizado para tareas de reconocimiento de objetos, que contiene unas 9.000 imágenes de 101 categorías de objetos. Las categorías se eligieron para reflejar una variedad de objetos del mundo real, y las propias imágenes se seleccionaron y anotaron cuidadosamente para proporcionar un punto de referencia desafiante para los algoritmos de reconocimiento de objetos.

Características principales

  • El conjunto de datos Caltech-101 comprende unas 9.000 imágenes en color divididas en 101 categorías.
  • Las categorías abarcan una gran variedad de objetos, como animales, vehículos, artículos domésticos y personas.
  • El número de imágenes por categoría varía, con unas 40 a 800 imágenes en cada categoría.
  • Las imágenes son de tamaño variable, y la mayoría son de resolución media.
  • El Caltech-101 se utiliza ampliamente para entrenamiento y pruebas en el campo del aprendizaje automático, en particular para tareas de reconocimiento de objetos.

Estructura del conjunto de datos

A diferencia de muchos otros conjuntos de datos, el conjunto de datos Caltech-101 no se divide formalmente en conjuntos de entrenamiento y de prueba. Los usuarios suelen crear sus propias divisiones en función de sus necesidades específicas. Sin embargo, una práctica habitual es utilizar un subconjunto aleatorio de imágenes para el entrenamiento (por ejemplo, 30 imágenes por categoría) y el resto de imágenes para las pruebas.

Aplicaciones

El conjunto de datos Caltech-101 se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo en tareas de reconocimiento de objetos, como redes neuronales convolucionales (CNN), máquinas de vectores de soporte (SVM) y otros algoritmos de aprendizaje automático. Su gran variedad de categorías e imágenes de alta calidad lo convierten en un excelente conjunto de datos para la investigación y el desarrollo en el campo del aprendizaje automático y la visión por ordenador.

Utilización

Para entrenar un modelo YOLO en el conjunto de datos Caltech-101 durante 100 épocas, puedes utilizar los siguientes fragmentos de código. Para obtener una lista completa de los argumentos disponibles, consulta la página Entrenamiento del modelo.

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Ejemplos de imágenes y anotaciones

El conjunto de datos Caltech-101 contiene imágenes en color de alta calidad de diversos objetos, lo que proporciona un conjunto de datos bien estructurado para tareas de reconocimiento de objetos. Aquí tienes algunos ejemplos de imágenes del conjunto de datos:

Imagen de muestra del conjunto de datos

El ejemplo muestra la variedad y complejidad de los objetos del conjunto de datos Caltech-101, lo que subraya la importancia de un conjunto de datos diverso para entrenar modelos robustos de reconocimiento de objetos.

Citas y agradecimientos

Si utilizas el conjunto de datos Caltech-101 en tu trabajo de investigación o desarrollo, cita el siguiente documento:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Queremos dar las gracias a Li Fei-Fei, Rob Fergus y Pietro Perona por crear y mantener el conjunto de datos Caltech-101 como un valioso recurso para la comunidad investigadora del aprendizaje automático y la visión por ordenador. Para más información sobre el conjunto de datos Caltech-101 y sus creadores, visita el sitio web del conjunto de datos Caltech-101.

PREGUNTAS FRECUENTES

¿Para qué se utiliza el conjunto de datos Caltech-101 en el aprendizaje automático?

El conjunto de datos Caltech-101 se utiliza ampliamente en el aprendizaje automático para tareas de reconocimiento de objetos. Contiene unas 9.000 imágenes de 101 categorías, lo que supone un reto para evaluar los algoritmos de reconocimiento de objetos. Los investigadores lo utilizan para entrenar y probar modelos, especialmente Redes Neuronales Convolucionales (CNN) y Máquinas de Vectores de Soporte (SVM), en visión por ordenador.

¿Cómo puedo entrenar un modelo Ultralytics YOLO en el conjunto de datos Caltech-101?

Para entrenar un modelo Ultralytics YOLO en el conjunto de datos Caltech-101, puedes utilizar los fragmentos de código proporcionados. Por ejemplo, para entrenar durante 100 épocas:

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Para obtener argumentos y opciones más detallados, consulta la página de Formación del modelo.

¿Cuáles son las características principales del conjunto de datos Caltech-101?

El conjunto de datos Caltech-101 incluye: - Unas 9.000 imágenes en color de 101 categorías. - Categorías que abarcan una amplia gama de objetos, como animales, vehículos y artículos domésticos. - Número variable de imágenes por categoría, normalmente entre 40 y 800. - Tamaños de imagen variables, siendo la mayoría de resolución media.

Estas características lo convierten en una opción excelente para entrenar y evaluar modelos de reconocimiento de objetos en aprendizaje automático y visión por ordenador.

¿Por qué debería citar el conjunto de datos Caltech-101 en mi investigación?

Citar el conjunto de datos Caltech-101 en tu investigación reconoce las contribuciones de los creadores y proporciona una referencia para otros que puedan utilizar el conjunto de datos. La cita recomendada es:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Citar ayuda a mantener la integridad del trabajo académico y ayuda a los compañeros a localizar el recurso original.

¿Puedo utilizar Ultralytics HUB para entrenar modelos en el conjunto de datos Caltech-101?

Sí, puedes utilizar Ultralytics HUB para entrenar modelos en el conjunto de datos Caltech-101. Ultralytics HUB proporciona una plataforma intuitiva para gestionar conjuntos de datos, entrenar modelos y desplegarlos sin necesidad de una codificación exhaustiva. Para obtener una guía detallada, consulta la entrada del blog Cómo entrenar tus modelos personalizados con Ultralytics HUB.



Creado 2023-11-12, Actualizado 2024-07-04
Autores: glenn-jocher (6)

Comentarios