Conjunto de Dados KITTI
O conjunto de dados kitti é um dos conjuntos de dados de referência mais influentes para direção autônoma e visão computacional. Lançado pelo Instituto de Tecnologia de Karlsruhe e pelo Instituto Tecnológico Toyota em Chicago, ele contém dados de câmera estéreo, LiDAR e GPS/IMU coletados de cenários de direção do mundo real.
Assista: Como Treinar Ultralytics YOLO26 no Conjunto de Dados KITTI 🚀
É amplamente utilizado para avaliar algoritmos em detecção de objetos, estimativa de profundidade, fluxo óptico e odometria visual. O conjunto de dados é totalmente compatível com Ultralytics YOLO26 para tarefas de detecção de objetos 2D e pode ser facilmente integrado à plataforma Ultralytics para treinamento e avaliação.
Estrutura do Conjunto de Dados
Aviso
O conjunto de teste original de Kitti é excluído aqui, pois não contém anotações de verdade terrestre.
No total, o conjunto de dados inclui 7.481 imagens, cada uma emparelhada com anotações detalhadas para objetos como carros, pedestres, ciclistas e outros elementos da estrada. O conjunto de dados é dividido em dois subconjuntos principais:
- Conjunto de treinamento: Contém 5.985 imagens com rótulos anotados usados para o treinamento do modelo.
- Conjunto de validação: Inclui 1.496 imagens com anotações correspondentes usadas para avaliação de desempenho e benchmarking.
Aplicações
O conjunto de dados Kitti permite avanços na condução autónoma e na robótica, suportando tarefas como:
- Percepção de veículos autônomos: Treinar modelos para detectar e track veículos, pedestres e obstáculos para navegação segura em sistemas de direção autônoma.
- Compreensão de cena 3D: Suporte para estimativa de profundidade, visão estéreo e localização de objetos 3D para ajudar as máquinas a entender ambientes espaciais.
- Fluxo óptico e previsão de movimento: Permitindo a análise de movimento para prever o movimento de objetos e melhorar o planejamento de trajetória em ambientes dinâmicos.
- Benchmarking de visão computacional: Servindo como um benchmark padrão para avaliar o desempenho em várias tarefas de visão, incluindo detecção de objetos e track.
YAML do Conjunto de Dados
A Ultralytics define a configuração do conjunto de dados kitti usando um arquivo YAML. Este arquivo especifica os caminhos do conjunto de dados, rótulos de classe e metadados necessários para o treinamento. O arquivo de configuração está disponível em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/kitti.yaml.
ultralytics/cfg/datasets/kitti.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# KITTI dataset by Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago
# Documentation: https://docs.ultralytics.com/datasets/detect/kitti/
# Example usage: yolo train data=kitti.yaml
# parent
# ├── ultralytics
# └── datasets
# └── kitti ← downloads here (390.5 MB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: kitti # dataset root dir
train: images/train # train images (relative to 'path') 5985 images
val: images/val # val images (relative to 'path') 1496 images
names:
0: car
1: van
2: truck
3: pedestrian
4: person_sitting
5: cyclist
6: tram
7: misc
# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/kitti.zip
Utilização
Para treinar um modelo YOLO26n no conjunto de dados kitti por 100 épocas com um tamanho de imagem de 640, use os seguintes comandos. Para mais detalhes, consulte a página de Treinamento.
Exemplo de Treinamento
from ultralytics import YOLO
# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")
# Train on kitti dataset
results = model.train(data="kitti.yaml", epochs=100, imgsz=640)
yolo detect train data=kitti.yaml model=yolo26n.pt epochs=100 imgsz=640
Você também pode realizar tarefas de avaliação, inferência e exportação diretamente da linha de comando ou da API Python usando o mesmo arquivo de configuração.
Amostras de Imagens e Anotações
O conjunto de dados kitti fornece diversos cenários de direção. Cada imagem inclui anotações de bounding box para tarefas de detecção de objetos 2D. O exemplo mostra a rica variedade do conjunto de dados, permitindo uma generalização robusta do modelo em diversas condições do mundo real.

Citações e Agradecimentos
Se você usar o dataset kitti em sua pesquisa, cite o seguinte artigo:
Citação
@article{Geiger2013IJRR,
author = {Andreas Geiger and Philip Lenz and Christoph Stiller and Raquel Urtasun},
title = {Vision meets Robotics: The KITTI Dataset},
journal = {International Journal of Robotics Research (IJRR)},
year = {2013}
}
Agradecemos ao KITTI Vision Benchmark Suite por fornecer este conjunto de dados abrangente que continua a moldar o progresso na visão computacional, robótica e sistemas autônomos. Visite o site kitti para obter mais informações.
FAQs
Para que serve o conjunto de dados kitti?
O conjunto de dados kitti é usado principalmente para pesquisa em visão computacional em direção autônoma, suportando tarefas como detecção de objetos, estimativa de profundidade, fluxo óptico e localização 3D.
Quantas imagens estão incluídas no dataset kitti?
O conjunto de dados inclui 5.985 imagens de treinamento rotuladas e 1.496 imagens de validação capturadas em cenas urbanas, rurais e rodoviárias. O conjunto de testes original é excluído aqui, pois não contém anotações de ground-truth.
Quais classes de objetos são anotadas no conjunto de dados?
kitti inclui anotações para objetos como carros, peões, ciclistas, camiões, bondes e utilizadores de estradas diversos.
Posso treinar modelos Ultralytics YOLO26 usando o conjunto de dados kitti?
Sim, kitti é totalmente compatível com Ultralytics YOLO26. Você pode treinar e validar modelos diretamente usando o arquivo de configuração YAML fornecido.
Onde posso encontrar o arquivo de configuração do conjunto de dados kitti?
Você pode acessar o arquivo YAML em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/kitti.yaml.