Conjunto de dados Caltech-101
O conjunto de dados Caltech-101 é um conjunto de dados amplamente utilizado para tarefas de reconhecimento de objectos, contendo cerca de 9.000 imagens de 101 categorias de objectos. As categorias foram escolhidas para refletir uma variedade de objectos do mundo real, e as próprias imagens foram cuidadosamente selecionadas e anotadas para fornecer uma referência desafiante para os algoritmos de reconhecimento de objectos.
Caraterísticas principais
- O conjunto de dados Caltech-101 inclui cerca de 9.000 imagens a cores divididas em 101 categorias.
- As categorias abrangem uma grande variedade de objectos, incluindo animais, veículos, artigos domésticos e pessoas.
- O número de imagens por categoria varia, com cerca de 40 a 800 imagens em cada categoria.
- As imagens são de tamanhos variáveis, sendo a maioria de resolução média.
- O Caltech-101 é amplamente utilizado para treino e teste no domínio da aprendizagem automática, em particular para tarefas de reconhecimento de objectos.
Estrutura do conjunto de dados
Ao contrário de muitos outros conjuntos de dados, o conjunto de dados Caltech-101 não está formalmente dividido em conjuntos de treino e de teste. Normalmente, os utilizadores criam as suas próprias divisões com base nas suas necessidades específicas. No entanto, uma prática comum é utilizar um subconjunto aleatório de imagens para treino (por exemplo, 30 imagens por categoria) e as restantes imagens para teste.
Aplicações
O conjunto de dados Caltech-101 é amplamente utilizado para treinar e avaliar modelos de aprendizagem profunda em tarefas de reconhecimento de objectos, tais como Redes Neuronais Convolucionais (CNN), Máquinas de Vectores de Suporte (SVM) e vários outros algoritmos de aprendizagem automática. A sua grande variedade de categorias e imagens de alta qualidade fazem dele um excelente conjunto de dados para investigação e desenvolvimento no domínio da aprendizagem automática e da visão computacional.
Utilização
Para treinar um modelo YOLO no conjunto de dados Caltech-101 para 100 épocas, você pode usar os seguintes trechos de código. Para obter uma lista abrangente dos argumentos disponíveis, consulte a página Treinamento do modelo.
Exemplo de comboio
Exemplos de imagens e anotações
O conjunto de dados Caltech-101 contém imagens a cores de alta qualidade de vários objectos, fornecendo um conjunto de dados bem estruturado para tarefas de reconhecimento de objectos. Aqui estão alguns exemplos de imagens do conjunto de dados:
O exemplo mostra a variedade e complexidade dos objectos no conjunto de dados Caltech-101, realçando a importância de um conjunto de dados diversificado para treinar modelos robustos de reconhecimento de objectos.
Citações e agradecimentos
Se utilizar o conjunto de dados Caltech-101 no seu trabalho de investigação ou desenvolvimento, cite o seguinte documento:
@article{fei2007learning,
title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
journal={Computer vision and Image understanding},
volume={106},
number={1},
pages={59--70},
year={2007},
publisher={Elsevier}
}
Gostaríamos de agradecer a Li Fei-Fei, Rob Fergus e Pietro Perona pela criação e manutenção do conjunto de dados Caltech-101 como um recurso valioso para a comunidade de investigação em aprendizagem automática e visão computacional. Para mais informações sobre o conjunto de dados Caltech-101 e os seus criadores, visite o sítio Web do conjunto de dados Caltech-101.
FAQ
Para que é que o conjunto de dados Caltech-101 é utilizado na aprendizagem automática?
O conjunto de dados Caltech-101 é amplamente utilizado na aprendizagem automática para tarefas de reconhecimento de objectos. Contém cerca de 9.000 imagens em 101 categorias, constituindo uma referência difícil para avaliar algoritmos de reconhecimento de objectos. Os investigadores utilizam-no para treinar e testar modelos, especialmente Redes Neuronais Convolucionais (CNNs) e Máquinas de Vectores de Suporte (SVMs), em visão computacional.
Como é que posso treinar um modelo Ultralytics YOLO no conjunto de dados Caltech-101?
Para treinar um modelo Ultralytics YOLO no conjunto de dados Caltech-101, pode utilizar os trechos de código fornecidos. Por exemplo, para treinar para 100 épocas:
Exemplo de comboio
Para argumentos e opções mais pormenorizados, consulte a página de formação do modelo.
Quais são as principais caraterísticas do conjunto de dados Caltech-101?
O conjunto de dados Caltech-101 inclui:
- Cerca de 9.000 imagens a cores em 101 categorias.
- Categorias que abrangem uma gama diversificada de objectos, incluindo animais, veículos e artigos domésticos.
- Número variável de imagens por categoria, normalmente entre 40 e 800.
- Tamanhos de imagem variáveis, sendo a maioria de resolução média.
Estas caraterísticas fazem dele uma excelente escolha para treinar e avaliar modelos de reconhecimento de objectos em aprendizagem automática e visão computacional.
Por que razão devo citar o conjunto de dados Caltech-101 na minha investigação?
A citação do conjunto de dados Caltech-101 na sua investigação reconhece as contribuições dos criadores e fornece uma referência para outros que possam utilizar o conjunto de dados. A citação recomendada é:
@article{fei2007learning,
title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
journal={Computer vision and Image understanding},
volume={106},
number={1},
pages={59--70},
year={2007},
publisher={Elsevier}
}
A citação ajuda a manter a integridade do trabalho académico e ajuda os colegas a localizar o recurso original.
Posso utilizar o Ultralytics HUB para treinar modelos no conjunto de dados Caltech-101?
Sim, pode utilizar o Ultralytics HUB para treinar modelos no conjunto de dados Caltech-101. Ultralytics O HUB fornece uma plataforma intuitiva para gerenciar conjuntos de dados, modelos de treinamento e implantá-los sem codificação extensa. Para obter um guia detalhado, consulte a publicação no blogue Ultralytics HUB sobre como treinar os seus modelos personalizados.