Zum Inhalt springen

Caltech-101-Datensatz

Der Caltech-101-Datensatz ist ein weit verbreiteter Datensatz für Objekterkennungsaufgaben und enthält rund 9.000 Bilder aus 101 Objektkategorien. Die Kategorien wurden so gewählt, dass sie eine Vielzahl von Objekten aus der realen Welt widerspiegeln. Die Bilder selbst wurden sorgfältig ausgewählt und beschriftet, um einen anspruchsvollen Benchmark für Objekterkennungsalgorithmen zu bieten.

Hauptmerkmale

  • Der Caltech-101-Datensatz umfasst rund 9.000 Farbbilder, die in 101 Kategorien unterteilt sind.
  • Die Kategorien umfassen eine Vielzahl von Objekten, darunter Tiere, Fahrzeuge, Haushaltsgegenstände und Menschen.
  • Die Anzahl der Bilder pro Kategorie variiert und liegt zwischen 40 und 800 Bildern pro Kategorie.
  • Die Bilder haben unterschiedliche Größen, wobei die meisten Bilder eine mittlere Auflösung haben.
  • Caltech-101 wird häufig zum Trainieren und Testen im Bereich des maschinellen Lernens verwendet, insbesondere für Aufgaben der Objekterkennung.

Struktur des Datensatzes

Im Gegensatz zu vielen anderen Datensätzen ist der Caltech-101-Datensatz nicht formell in Trainings- und Testdatensätze aufgeteilt. In der Regel erstellen die Nutzerinnen und Nutzer ihre eigene Aufteilung, die auf ihre speziellen Bedürfnisse zugeschnitten ist. Eine gängige Praxis ist jedoch, eine zufällige Teilmenge von Bildern für das Training zu verwenden (z. B. 30 Bilder pro Kategorie) und die restlichen Bilder für die Tests.

Anwendungen

Der Caltech-101-Datensatz wird häufig zum Trainieren und Evaluieren von Deep-Learning-Modellen für Objekterkennungsaufgaben verwendet, z. B. für Convolutional Neural Networks (CNNs), Support Vector Machines (SVMs) und verschiedene andere maschinelle Lernalgorithmen. Die große Vielfalt an Kategorien und die hohe Qualität der Bilder machen ihn zu einem ausgezeichneten Datensatz für die Forschung und Entwicklung auf dem Gebiet des maschinellen Lernens und der Computer Vision.

Verwendung

Um ein Modell YOLO auf dem Caltech-101-Datensatz für 100 Epochen zu trainieren, kannst du die folgenden Codeschnipsel verwenden. Eine umfassende Liste der verfügbaren Argumente findest du auf der Seite Modelltraining.

Beispiel für einen Zug

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-cls.pt')  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data='caltech101', epochs=100, imgsz=416)
# Start training from a pretrained *.pt model
yolo detect train data=caltech101 model=yolov8n-cls.pt epochs=100 imgsz=416

Beispielbilder und Anmerkungen

Der Caltech-101-Datensatz enthält hochwertige Farbbilder von verschiedenen Objekten, die einen gut strukturierten Datensatz für Objekterkennungsaufgaben darstellen. Hier sind einige Beispiele für Bilder aus diesem Datensatz:

Datensatz Beispielbild

Das Beispiel zeigt die Vielfalt und Komplexität der Objekte im Caltech-101-Datensatz und unterstreicht die Bedeutung eines vielfältigen Datensatzes für das Training robuster Objekterkennungsmodelle.

Zitate und Danksagungen

Wenn du den Caltech-101-Datensatz in deiner Forschungs- oder Entwicklungsarbeit verwendest, zitiere bitte das folgende Dokument:

@article{fei2007learning,
  title={Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories},
  author={Fei-Fei, Li and Fergus, Rob and Perona, Pietro},
  journal={Computer vision and Image understanding},
  volume={106},
  number={1},
  pages={59--70},
  year={2007},
  publisher={Elsevier}
}

Wir möchten Li Fei-Fei, Rob Fergus und Pietro Perona dafür danken, dass sie den Caltech-101-Datensatz als wertvolle Ressource für die Forschungsgemeinschaft im Bereich des maschinellen Lernens und der Computer Vision erstellt und gepflegt haben. Weitere Informationen über den Caltech-101-Datensatz und seine Schöpfer findest du auf der Website des Caltech-101-Datensatzes.



Erstellt am 2023-11-12, Aktualisiert am 2023-11-22
Autoren: glenn-jocher (3)

Kommentare