Salta para o conte√ļdo

Conjunto de dados Caltech-101

O conjunto de dados Caltech-101 é um conjunto de dados amplamente utilizado para tarefas de reconhecimento de objectos, contendo cerca de 9.000 imagens de 101 categorias de objectos. As categorias foram escolhidas para refletir uma variedade de objectos do mundo real, e as próprias imagens foram cuidadosamente seleccionadas e anotadas para fornecer uma referência desafiante para os algoritmos de reconhecimento de objectos.

Características principais

  • O conjunto de dados Caltech-101 inclui cerca de 9.000 imagens a cores divididas em 101 categorias.
  • As categorias abrangem uma grande variedade de objectos, incluindo animais, ve√≠culos, artigos dom√©sticos e pessoas.
  • O n√ļmero de imagens por categoria varia, com cerca de 40 a 800 imagens em cada categoria.
  • As imagens s√£o de tamanhos vari√°veis, sendo a maioria de resolu√ß√£o m√©dia.
  • O Caltech-101 √© amplamente utilizado para treino e teste no dom√≠nio da aprendizagem autom√°tica, em particular para tarefas de reconhecimento de objectos.

Estrutura do conjunto de dados

Ao contr√°rio de muitos outros conjuntos de dados, o conjunto de dados Caltech-101 n√£o est√° formalmente dividido em conjuntos de treino e de teste. Normalmente, os utilizadores criam as suas pr√≥prias divis√Ķes com base nas suas necessidades espec√≠ficas. No entanto, uma pr√°tica comum √© utilizar um subconjunto aleat√≥rio de imagens para treino (por exemplo, 30 imagens por categoria) e as restantes imagens para teste.

Aplica√ß√Ķes

O conjunto de dados Caltech-101 é amplamente utilizado para treinar e avaliar modelos de aprendizagem profunda em tarefas de reconhecimento de objectos, tais como Redes Neuronais Convolucionais (CNNs), Máquinas de Vectores de Suporte (SVMs) e vários outros algoritmos de aprendizagem automática. A sua grande variedade de categorias e imagens de alta qualidade fazem dele um excelente conjunto de dados para investigação e desenvolvimento no domínio da aprendizagem automática e da visão computacional.

Utilização

Para treinar um modelo YOLO no conjunto de dados Caltech-101 para 100 épocas, podes usar os seguintes trechos de código. Para obter uma lista abrangente dos argumentos disponíveis, consulta a página Treinamento do modelo.

Exemplo de comboio

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="caltech101", epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Exemplos de imagens e anota√ß√Ķes

O conjunto de dados Caltech-101 contém imagens a cores de alta qualidade de vários objectos, fornecendo um conjunto de dados bem estruturado para tarefas de reconhecimento de objectos. Aqui tens alguns exemplos de imagens do conjunto de dados:

Imagem de amostra do conjunto de dados

O exemplo mostra a variedade e complexidade dos objectos no conjunto de dados Caltech-101, real√ßando a import√Ęncia de um conjunto de dados diversificado para treinar modelos robustos de reconhecimento de objectos.

Cita√ß√Ķes e agradecimentos

Se utilizares o conjunto de dados Caltech-101 no teu trabalho de investigação ou desenvolvimento, cita o seguinte documento:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Gostar√≠amos de agradecer a Li Fei-Fei, Rob Fergus e Pietro Perona por criarem e manterem o conjunto de dados Caltech-101 como um recurso valioso para a comunidade de investiga√ß√£o em aprendizagem autom√°tica e vis√£o computacional. Para mais informa√ß√Ķes sobre o conjunto de dados Caltech-101 e os seus criadores, visita o s√≠tio Web do conjunto de dados Caltech-101.



Created 2023-11-12, Updated 2024-06-02
Authors: glenn-jocher (5)

Coment√°rios