KITTI-Datensatz
Der kitti-Datensatz ist einer der einflussreichsten Benchmark-Datensätze für autonomes Fahren und Computer Vision. Er wurde vom Karlsruher Institut für Technologie und dem Toyota Technological Institute in Chicago veröffentlicht und enthält Stereokamera-, LiDAR- und GPS/IMU-Daten, die in realen Fahrszenarien gesammelt wurden.
Er wird häufig zur Bewertung von Algorithmen zur Objekterkennung, Tiefenschätzung, optischem Fluss und visueller Odometrie verwendet. Der Datensatz ist vollständig kompatibel mit Ultralytics YOLO11 für 2D-Objekterkennungsaufgaben und kann leicht in die Ultralytics für Training und Bewertung integriert werden.
Dataset-Struktur
Warnung
Der ursprüngliche Testsatz von Kitti wird hier nicht berücksichtigt, da er keine wahrheitsgetreuen Notizen enthält.
Insgesamt umfasst der Datensatz 7.481 Bilder, die jeweils mit detaillierten Kommentaren zu Objekten wie Autos, Fußgängern, Radfahrern und anderen Straßenelementen versehen sind. Der Datensatz ist in zwei Hauptteilmengen unterteilt:
- Trainingsset: Enthält 5.985 Bilder mit Beschriftungen, die für das Modelltraining verwendet werden.
- Validierungssatz: Enthält 1.496 Bilder mit entsprechenden Anmerkungen, die für die Leistungsbewertung und das Benchmarking verwendet werden.
Anwendungen
Der Kitti-Datensatz ermöglicht Fortschritte beim autonomen Fahren und in der Robotik und unterstützt Aufgaben wie:
- Autonome Fahrzeugwahrnehmung: Training von Modellen zur Erkennung und Verfolgung von Fahrzeugen, Fußgängern und Hindernissen für eine sichere Navigation in selbstfahrenden Systemen.
- 3D-Szenenverständnis: Unterstützung von Tiefenschätzung, Stereosehen und 3D-Objektlokalisierung, um Maschinen zu helfen, räumliche Umgebungen zu verstehen.
- Optischer Fluss und Bewegungsvorhersage: Ermöglichung der Bewegungsanalyse zur Vorhersage der Bewegung von Objekten und zur Verbesserung der Flugbahnplanung in dynamischen Umgebungen.
- Computer Vision Benchmarking: Dient als Standard-Benchmark für die Bewertung der Leistung bei verschiedenen Bildverarbeitungsaufgaben, einschließlich Objekterkennung und -verfolgung.
Datensatz-YAML
Ultralytics definiert die Konfiguration des Kitti-Datensatzes mithilfe einer YAML-Datei. In dieser Datei werden Datensatzpfade, Klassenbezeichnungen und für die Schulung erforderliche Metadaten angegeben. Die Konfigurationsdatei ist unter ultralytics verfügbar ultralytics
ultralytics.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# Kitti dataset by Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago
# Documentation: https://docs.ultralytics.com/datasets/detect/kitti/
# Example usage: yolo train data=kitti.yaml
# parent
# ├── ultralytics
# └── datasets
# └── kitti ← downloads here (390.5 MB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: kitti # dataset root dir
train: images/train # train images (relative to 'path') 5985 images
val: images/val # val images (relative to 'path') 1496 images
names:
0: car
1: van
2: truck
3: pedestrian
4: person_sitting
5: cyclist
6: tram
7: misc
# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/kitti.zip
Nutzung
Um ein YOLO11n-Modell auf dem kitti-Datensatz für 100 Epochen mit einer Bildgröße von 640 zu trainieren, verwenden Sie die folgenden Befehle. Weitere Details finden Sie auf der Seite Training.
Trainingsbeispiel
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Train on kitti dataset
results = model.train(data="kitti.yaml", epochs=100, imgsz=640)
yolo detect train data=kitti.yaml model=yolo11n.pt epochs=100 imgsz=640
Sie können Evaluierungs-, Inferenz- und Exportaufgaben auch direkt über die Befehlszeile oder die Python durchführen, indem Sie dieselbe Konfigurationsdatei verwenden.
sample_images und Anmerkungen
Der Kitti-Datensatz bietet verschiedene Fahrszenarien. Jedes Bild enthält Bounding-Box-Kommentare für 2D-Objekterkennungsaufgaben. Das Beispiel zeigt die Vielfalt des Datensatzes und ermöglicht eine robuste Modellgeneralisierung unter verschiedenen realen Bedingungen.

Zitate und Danksagungen
Wenn Sie den Kitti-Datensatz in Ihrer Forschung verwenden, zitieren Sie bitte das folgende Dokument:
Zitat
@article{Geiger2013IJRR,
author = {Andreas Geiger and Philip Lenz and Christoph Stiller and Raquel Urtasun},
title = {Vision meets Robotics: The KITTI Dataset},
journal = {International Journal of Robotics Research (IJRR)},
year = {2013}
}
Wir danken der KITTI Vision Benchmark Suite für die Bereitstellung dieses umfassenden Datensatzes, der den Fortschritt in den Bereichen Computer Vision, Robotik und autonome Systeme weiter vorantreibt. Besuchen Sie die KITTI-Website für weitere Informationen.
FAQs
Wofür wird der Kitti-Datensatz verwendet?
Der kitti-Datensatz wird in erster Linie für die Bildverarbeitungsforschung im Bereich des autonomen Fahrens verwendet und unterstützt Aufgaben wie Objekterkennung, Tiefenabschätzung, optischen Fluss und 3D-Lokalisierung.
Wie viele Bilder sind im Kitti-Datensatz enthalten?
Der Datensatz umfasst 5.985 beschriftete Trainingsbilder und 1.496 Validierungsbilder, die in städtischen, ländlichen und Autobahnszenen aufgenommen wurden. Der ursprüngliche Testdatensatz ist hier nicht enthalten, da er keine wahrheitsgetreuen Beschriftungen enthält.
Welche Objektklassen sind in dem Datensatz kommentiert?
kitti enthält Anmerkungen zu Objekten wie Autos, Fußgängern, Radfahrern, Lastwagen, Straßenbahnen und anderen Verkehrsteilnehmern.
Kann ich Ultralytics YOLO11 mit dem kitti-Datensatz trainieren?
Ja, kitti ist vollständig kompatibel mit Ultralytics YOLO11. Sie können Modelle direkt mit der mitgelieferten YAML-Konfigurationsdatei trainieren und validieren.
Wo finde ich die Konfigurationsdatei für das Kitti-Dataset?
Sie können die YAML-Datei unter ultralytics aufrufen ultralytics