Ir para o conteúdo

Conjunto de Dados TT100K

O Tsinghua-Tencent 100K (TT100K) é um conjunto de dados de benchmark de sinais de trânsito em larga escala criado a partir de 100.000 panoramas do Tencent Street View. Este conjunto de dados é especificamente projetado para detecção e classificação de sinais de trânsito em condições do mundo real, fornecendo a pesquisadores e desenvolvedores um recurso abrangente para a construção de sistemas robustos de reconhecimento de sinais de trânsito.

O conjunto de dados contém 100.000 imagens com mais de 30.000 instâncias de sinais de trânsito em 221 categorias diferentes. Essas imagens capturam grandes variações de iluminância, condições climáticas, ângulos de visão e distâncias, tornando-o ideal para treinar modelos que precisam ter um desempenho confiável em diversos cenários do mundo real.

Este conjunto de dados é particularmente valioso para:

  • Sistemas de condução autónoma
  • Sistemas avançados de assistência ao condutor (ADAS)
  • Aplicações de monitorização de tráfego
  • Planeamento urbano e análise de tráfego
  • Pesquisa em visão computacional em condições reais

Principais Características

O conjunto de dados TT100K oferece várias vantagens principais:

  • Escala: 100.000 imagens de alta resolução (2048×2048 pixels)
  • Diversidade: 221 categorias de sinais de trânsito, abrangendo sinais de trânsito chineses
  • Condições reais: Grandes variações de clima, iluminação e ângulos de visualização
  • Anotações ricas: Cada sinal inclui rótulo de classe, caixa delimitadora (bounding box) e máscara de pixel
  • Cobertura abrangente: Inclui sinais de proibição, aviso, obrigatórios e informativos
  • Divisão Treino/Teste: Divisões pré-definidas para avaliação consistente

Estrutura do Conjunto de Dados

O conjunto de dados TT100K é dividido em três subconjuntos:

  1. Conjunto de Treinamento: A coleção principal de imagens de cenas de tráfego utilizada para treinar modelos para detect e classify diferentes tipos de sinais de tráfego.
  2. Conjunto de Validação: Um subconjunto utilizado durante o desenvolvimento do modelo para monitorar o desempenho e ajustar os hiperparâmetros.
  3. Conjunto de Teste: Uma coleção de imagens reservadas utilizada para avaliar a capacidade do modelo final de detect e classify sinais de tráfego em cenários do mundo real.

O conjunto de dados TT100K inclui 221 categorias de sinais de trânsito organizadas em vários grupos principais:

Sinais de Limite de Velocidade (pl, pm)

  1. pl_: Limites de velocidade proibitivos (pl5, pl10, pl20, pl30, pl40, pl50, pl60, pl70, pl80, pl100, pl120)
  2. pm_: Limites de velocidade mínimos (pm5, pm10, pm20, pm30, pm40, pm50, pm55)

Sinais de Proibição (p, pn, pr_)

  1. p1-p28: Sinais de proibição gerais (proibido entrar, proibido estacionar, proibido parar, etc.)
  2. pn/pne: Sinais de proibido entrar e proibido estacionar
  3. pr: Vários sinais de restrição (pr10, pr20, pr30, pr40, pr50, etc.)

Sinais de Aviso (w_)

  1. w1-w66: Sinais de aviso para vários perigos, condições e situações rodoviárias
  2. Inclui passagens de peões, curvas apertadas, estradas escorregadias, animais, construção, etc.

Sinais de Limite de Altura/Largura (ph, pb)

  1. ph_: Sinais de limite de altura (ph2, ph2.5, ph3, ph3.5, ph4, ph4.5, ph5, etc.)
  2. pb_: Sinais de limite de largura

Sinais Informativos (i, il, io, ip)

  1. i1-i15: Sinais informativos gerais
  2. il_: Informações de limite de velocidade (il60, il80, il100, il110)
  3. io: Outros sinais informativos
  4. ip: Placas de informação

YAML do Conjunto de Dados

Um arquivo yaml (Yet Another Markup Language) é utilizado para definir a configuração do conjunto de dados. Ele contém informações sobre os caminhos, classes e outras informações relevantes do conjunto de dados. Para o conjunto de dados TT100K, o TT100K.yaml arquivo inclui funcionalidade de download e conversão automática.

ultralytics/cfg/datasets/TT100K.yaml

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# Tsinghua-Tencent 100K (TT100K) dataset https://cg.cs.tsinghua.edu.cn/traffic-sign/ by Tsinghua University
# Documentation: https://cg.cs.tsinghua.edu.cn/traffic-sign/tutorial.html
# Paper: Traffic-Sign Detection and Classification in the Wild (CVPR 2016)
# License: CC BY-NC 2.0 license for non-commercial use only
# Example usage: yolo train data=TT100K.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── TT100K ← downloads here (~18 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: TT100K # dataset root dir
train: images/train # train images (relative to 'path') 6105 images
val: images/val # val images (relative to 'path') 7641 images (original 'other' split)
test: images/test # test images (relative to 'path') 3071 images

# Classes (221 traffic sign categories, 45 with sufficient training instances)
names:
  0: pl5
  1: pl10
  2: pl15
  3: pl20
  4: pl25
  5: pl30
  6: pl40
  7: pl50
  8: pl60
  9: pl70
  10: pl80
  11: pl90
  12: pl100
  13: pl110
  14: pl120
  15: pm5
  16: pm10
  17: pm13
  18: pm15
  19: pm20
  20: pm25
  21: pm30
  22: pm35
  23: pm40
  24: pm46
  25: pm50
  26: pm55
  27: pm8
  28: pn
  29: pne
  30: ph4
  31: ph4.5
  32: ph5
  33: ps
  34: pg
  35: ph1.5
  36: ph2
  37: ph2.1
  38: ph2.2
  39: ph2.4
  40: ph2.5
  41: ph2.8
  42: ph2.9
  43: ph3
  44: ph3.2
  45: ph3.5
  46: ph3.8
  47: ph4.2
  48: ph4.3
  49: ph4.8
  50: ph5.3
  51: ph5.5
  52: pb
  53: pr10
  54: pr100
  55: pr20
  56: pr30
  57: pr40
  58: pr45
  59: pr50
  60: pr60
  61: pr70
  62: pr80
  63: pr90
  64: p1
  65: p2
  66: p3
  67: p4
  68: p5
  69: p6
  70: p7
  71: p8
  72: p9
  73: p10
  74: p11
  75: p12
  76: p13
  77: p14
  78: p15
  79: p16
  80: p17
  81: p18
  82: p19
  83: p20
  84: p21
  85: p22
  86: p23
  87: p24
  88: p25
  89: p26
  90: p27
  91: p28
  92: pa8
  93: pa10
  94: pa12
  95: pa13
  96: pa14
  97: pb5
  98: pc
  99: pg
  100: ph1
  101: ph1.3
  102: ph1.5
  103: ph2
  104: ph3
  105: ph4
  106: ph5
  107: pi
  108: pl0
  109: pl4
  110: pl5
  111: pl8
  112: pl10
  113: pl15
  114: pl20
  115: pl25
  116: pl30
  117: pl35
  118: pl40
  119: pl50
  120: pl60
  121: pl65
  122: pl70
  123: pl80
  124: pl90
  125: pl100
  126: pl110
  127: pl120
  128: pm2
  129: pm8
  130: pm10
  131: pm13
  132: pm15
  133: pm20
  134: pm25
  135: pm30
  136: pm35
  137: pm40
  138: pm46
  139: pm50
  140: pm55
  141: pn
  142: pne
  143: po
  144: pr10
  145: pr100
  146: pr20
  147: pr30
  148: pr40
  149: pr45
  150: pr50
  151: pr60
  152: pr70
  153: pr80
  154: ps
  155: w1
  156: w2
  157: w3
  158: w5
  159: w8
  160: w10
  161: w12
  162: w13
  163: w16
  164: w18
  165: w20
  166: w21
  167: w22
  168: w24
  169: w28
  170: w30
  171: w31
  172: w32
  173: w34
  174: w35
  175: w37
  176: w38
  177: w41
  178: w42
  179: w43
  180: w44
  181: w45
  182: w46
  183: w47
  184: w48
  185: w49
  186: w50
  187: w51
  188: w52
  189: w53
  190: w54
  191: w55
  192: w56
  193: w57
  194: w58
  195: w59
  196: w60
  197: w62
  198: w63
  199: w66
  200: i1
  201: i2
  202: i3
  203: i4
  204: i5
  205: i6
  206: i7
  207: i8
  208: i9
  209: i10
  210: i11
  211: i12
  212: i13
  213: i14
  214: i15
  215: il60
  216: il80
  217: il100
  218: il110
  219: io
  220: ip

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import shutil
  from pathlib import Path

  from PIL import Image

  from ultralytics.utils import TQDM
  from ultralytics.utils.downloads import download


  def tt100k2yolo(dir):
      """Convert TT100K annotations to YOLO format with images/{split} and labels/{split} structure."""
      data_dir = dir / "data"
      anno_file = data_dir / "annotations.json"

      print("Loading annotations...")
      with open(anno_file, encoding="utf-8") as f:
          data = json.load(f)

      # Build class name to index mapping from yaml
      names = yaml["names"]
      class_to_idx = {v: k for k, v in names.items()}

      # Create directories
      for split in ["train", "val", "test"]:
          (dir / "images" / split).mkdir(parents=True, exist_ok=True)
          (dir / "labels" / split).mkdir(parents=True, exist_ok=True)

      print("Converting annotations to YOLO format...")
      skipped = 0
      for img_id, img_data in TQDM(data["imgs"].items(), desc="Processing"):
          img_path_str = img_data["path"]
          if "train" in img_path_str:
              split = "train"
          elif "test" in img_path_str:
              split = "test"
          else:
              split = "val"

          # Source and destination paths
          src_img = data_dir / img_path_str
          if not src_img.exists():
              continue

          dst_img = dir / "images" / split / src_img.name

          # Get image dimensions
          try:
              with Image.open(src_img) as img:
                  img_width, img_height = img.size
          except Exception as e:
              print(f"Error reading {src_img}: {e}")
              continue

          # Copy image to destination
          shutil.copy2(src_img, dst_img)

          # Convert annotations
          label_file = dir / "labels" / split / f"{src_img.stem}.txt"
          lines = []

          for obj in img_data.get("objects", []):
              category = obj["category"]
              if category not in class_to_idx:
                  skipped += 1
                  continue

              bbox = obj["bbox"]
              xmin, ymin = bbox["xmin"], bbox["ymin"]
              xmax, ymax = bbox["xmax"], bbox["ymax"]

              # Convert to YOLO format (normalized center coordinates and dimensions)
              x_center = ((xmin + xmax) / 2.0) / img_width
              y_center = ((ymin + ymax) / 2.0) / img_height
              width = (xmax - xmin) / img_width
              height = (ymax - ymin) / img_height

              # Clip to valid range
              x_center = max(0, min(1, x_center))
              y_center = max(0, min(1, y_center))
              width = max(0, min(1, width))
              height = max(0, min(1, height))

              cls_idx = class_to_idx[category]
              lines.append(f"{cls_idx} {x_center:.6f} {y_center:.6f} {width:.6f} {height:.6f}\n")

          # Write label file
          if lines:
              label_file.write_text("".join(lines), encoding="utf-8")

      if skipped:
          print(f"Skipped {skipped} annotations with unknown categories")
      print("Conversion complete!")


  # Download
  dir = Path(yaml["path"])  # dataset root dir
  urls = ["https://cg.cs.tsinghua.edu.cn/traffic-sign/data_model_code/data.zip"]
  download(urls, dir=dir, curl=True, threads=1)

  # Convert
  tt100k2yolo(dir)

Utilização

Para treinar um modelo YOLO26 no conjunto de dados TT100K por 100 épocas com um tamanho de imagem de 640, pode usar os seguintes trechos de código. O conjunto de dados será automaticamente descarregado e convertido para o formato YOLO na primeira utilização.

Exemplo de Treinamento

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n.pt")  # load a pretrained model (recommended for training)

# Train the model - dataset will auto-download on first run
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
# Dataset will auto-download and convert on first run
yolo detect train data=TT100K.yaml model=yolo26n.pt epochs=100 imgsz=640

Amostras de Imagens e Anotações

Aqui estão exemplos típicos do conjunto de dados TT100K:

  1. Ambientes urbanos: Cenas de rua com múltiplos sinais de trânsito a várias distâncias
  2. Cenas de autoestrada: Sinais de estrada de alta velocidade, incluindo limites de velocidade e indicadores de direção
  3. Cruzamentos complexos: Múltiplos sinais em proximidade com orientações variadas
  4. Condições desafiadoras: Sinais sob diferentes condições de iluminação (dia/noite), clima (chuva/neblina) e ângulos de visão

O conjunto de dados inclui:

  1. Sinais em close-up: Sinais grandes e claramente visíveis, ocupando uma área significativa da imagem
  2. Sinais distantes: Sinais pequenos que exigem capacidades de detect de alta precisão
  3. Sinais parcialmente ocluídos: Sinais parcialmente bloqueados por veículos, árvores ou outros objetos
  4. Múltiplos sinais por imagem: Imagens contendo vários tipos diferentes de sinais

Citações e Agradecimentos

Se você utilizar o conjunto de dados TT100K em seu trabalho de pesquisa ou desenvolvimento, por favor, cite o seguinte artigo:

@InProceedings{Zhu_2016_CVPR,
    author = {Zhu, Zhe and Liang, Dun and Zhang, Songhai and Huang, Xiaolei and Li, Baoli and Hu, Shimin},
    title = {Traffic-Sign Detection and Classification in the Wild},
    booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    month = {June},
    year = {2016}
}

Gostaríamos de reconhecer a colaboração entre a Universidade de Tsinghua e a Tencent pela criação e manutenção deste valioso recurso para as comunidades de visão computacional e condução autônoma. Para mais informações sobre o conjunto de dados TT100K, visite o site oficial do conjunto de dados.

FAQ

Para que é usado o conjunto de dados TT100K?

O conjunto de dados Tsinghua-Tencent 100K (TT100K) é especificamente projetado para detect e classificação de sinais de trânsito em condições do mundo real. É utilizado principalmente para:

  1. Treinamento de sistemas de percepção para condução autônoma
  2. Desenvolvimento de Sistemas Avançados de Assistência ao Motorista (ADAS)
  3. Pesquisa em detecção robusta de objetos sob condições variadas
  4. Benchmarking de algoritmos de reconhecimento de sinais de trânsito
  5. Teste de desempenho do modelo em objetos pequenos em imagens grandes

Com 100.000 imagens diversas de street view e 221 categorias de sinais de trânsito, ele oferece um ambiente de teste abrangente para a detecção de sinais de trânsito no mundo real.

Quantas categorias de sinais de trânsito existem no TT100K?

O dataset TT100K contém 221 categorias diferentes de sinais de trânsito, incluindo:

  1. Limites de velocidade: pl5 a pl120 (limites proibitivos) e pm5 a pm55 (velocidades mínimas)
  2. Sinais proibitivos: mais de 28 tipos de proibição geral (p1-p28) mais restrições (pr*, pn, pne)
  3. Sinais de advertência: mais de 60 categorias de advertência (w1-w66)
  4. Limites de altura/largura: séries ph e pb para restrições físicas
  5. Sinais informativos: i1-i15, il*, io, ip para orientação e informação

Esta cobertura abrangente inclui a maioria dos sinais de trânsito encontrados nas redes rodoviárias chinesas.

Como posso treinar um modelo YOLO26n usando o conjunto de dados TT100K?

Para treinar um modelo YOLO26n no conjunto de dados TT100K por 100 épocas com um tamanho de imagem de 640, utilize o exemplo abaixo.

Exemplo de Treinamento

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=TT100K.yaml model=yolo26n.pt epochs=100 imgsz=640

Para configurações de treinamento detalhadas, consulte a documentação de Treinamento.

O que torna o TT100K desafiador em comparação com outros conjuntos de dados?

O TT100K apresenta vários desafios únicos:

  1. Variação de escala: Os sinais variam de muito pequenos (sinais de rodovia distantes) a grandes (sinais urbanos em close-up)
  2. Condições do mundo real: Variações extremas de iluminação, clima e ângulos de visão
  3. Alta resolução: Imagens de 2048×2048 pixels exigem poder de processamento significativo
  4. Desequilíbrio de classes: Alguns tipos de sinais são muito mais comuns do que outros
  5. Cenas densas: Múltiplos sinais podem aparecer em uma única imagem
  6. Oclusão parcial: Os sinais podem ser parcialmente bloqueados por veículos, vegetação ou estruturas

Estes desafios tornam o TT100K uma referência valiosa para o desenvolvimento de algoritmos de detecção robustos.

Como lidar com os grandes tamanhos de imagem no TT100K?

O conjunto de dados TT100K utiliza imagens de 2048×2048 pixels, o que pode ser intensivo em recursos. Aqui estão as estratégias recomendadas:

Para Treinamento:

# Option 1: Resize to standard YOLO size
model.train(data="TT100K.yaml", imgsz=640, batch=16)

# Option 2: Use larger size for better small object detection
model.train(data="TT100K.yaml", imgsz=1280, batch=4)

# Option 3: Multi-scale training
model.train(data="TT100K.yaml", imgsz=640, scale=0.5)  # trains at varying scales

Recomendações:

  • Comece com imgsz=640 para experimentos iniciais
  • Use imgsz=1280 se você tiver memória de GPU suficiente (24GB+)
  • Considere estratégias de tiling para sinais muito pequenos
  • Use acumulação de gradiente para simular tamanhos de batch maiores


📅 Criado há 29 dias ✏️ Atualizado há 23 dias
glenn-jocherPrashantDixit0

Comentários