跳转至内容

TT100K数据集

清华-腾讯10万交通标志数据集(TT100K)是由腾讯街景全景图构建的大规模交通标志基准数据集。该数据集专为真实环境下的交通标志检测与分类而设计,为研究人员和开发者构建稳健的交通标志识别系统提供了全面资源。

该数据集包含10万张图像,涵盖221个不同类别超过3万个交通标志实例。这些图像记录了光照强度、天气状况、视角和距离等方面的巨大变化,使其成为训练模型的理想选择——这些模型需要在多样化的真实场景中可靠运行。

该数据集对以下领域具有特别价值:

  • 自动驾驶系统
  • 高级驾驶辅助系统(ADAS)
  • 交通监控应用程序
  • 城市规划与交通分析
  • 真实环境中的计算机视觉研究

主要功能

TT100K数据集具有以下几个关键优势:

  • 规模:100,000张高分辨率图像(2048×2048像素)
  • 多样性:221类交通标志,涵盖中国交通标志
  • 实际环境条件:天气、光照和视角存在较大变化
  • 丰富标注:每个标记包含类别标签、边界框和像素遮罩
  • 全面覆盖:包括禁止性、警示性、强制性和说明性标志
  • 训练集/测试集划分:预定义的划分方案,确保评估结果的一致性

数据集结构

TT100K数据集被划分为三个子集:

  1. 训练集:用于训练模型以检测和分类不同类型交通标志的主要交通场景图像集合。
  2. 验证集:在模型开发过程中用于监控性能和调整超参数的子集。
  3. 测试集:用于评估最终模型在真实场景中detect classify 标志能力的预先保留图像集合。

TT100K数据集包含221类交通标志,这些标志被划分为若干主要类别:

限速标志(上午,下午

  1. pl_: 限速标志(pl5、pl10、pl20、pl30、pl40、pl50、pl60、pl70、pl80、pl100、pl120)
  2. pm_: 最低速度限制(pm5、pm10、pm20、pm30、pm40、pm50、pm55)

禁止标志 (p, pn, pr_)

  1. p1-p28:通用禁止标志(禁止通行、禁止停车、禁止停靠等)
  2. pn/pne:禁止通行及禁止停车标志
  3. pr: 各种限制标志(pr10、pr20、pr30、pr40、pr50等)

警告标志 (w_)

  1. w1-w66:各类道路危险、状况及情境的警示标志
  2. 包括人行横道、急转弯、湿滑路面、动物、施工等。

高度/宽度限制标志(ph, pb

  1. 高度限制标志(ph2、ph2.5、ph3、ph3.5、ph4、ph4.5、ph5等)
  2. pb_: 宽度限制标志

指示性符号(i, il, io, ip)

  1. i1-i15:通用信息标识
  2. il_: 限速信息(il60、il80、il100、il110)
  3. io: 其他信息性标识
  4. ip: 信息铭牌

数据集 YAML

YAML(又一种标记语言)文件用于定义数据集配置。其中包含数据集路径、类别及其他相关信息。对于TT100K数据集,该文件包含以下内容: TT100K.yaml 该文件包含自动下载和转换功能。

ultralytics.yaml

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# Tsinghua-Tencent 100K (TT100K) dataset https://cg.cs.tsinghua.edu.cn/traffic-sign/ by Tsinghua University
# Documentation: https://cg.cs.tsinghua.edu.cn/traffic-sign/tutorial.html
# Paper: Traffic-Sign Detection and Classification in the Wild (CVPR 2016)
# License: CC BY-NC 2.0 license for non-commercial use only
# Example usage: yolo train data=TT100K.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── TT100K ← downloads here (~18 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: TT100K # dataset root dir
train: images/train # train images (relative to 'path') 6105 images
val: images/val # val images (relative to 'path') 7641 images (original 'other' split)
test: images/test # test images (relative to 'path') 3071 images

# Classes (221 traffic sign categories, 45 with sufficient training instances)
names:
  0: pl5
  1: pl10
  2: pl15
  3: pl20
  4: pl25
  5: pl30
  6: pl40
  7: pl50
  8: pl60
  9: pl70
  10: pl80
  11: pl90
  12: pl100
  13: pl110
  14: pl120
  15: pm5
  16: pm10
  17: pm13
  18: pm15
  19: pm20
  20: pm25
  21: pm30
  22: pm35
  23: pm40
  24: pm46
  25: pm50
  26: pm55
  27: pm8
  28: pn
  29: pne
  30: ph4
  31: ph4.5
  32: ph5
  33: ps
  34: pg
  35: ph1.5
  36: ph2
  37: ph2.1
  38: ph2.2
  39: ph2.4
  40: ph2.5
  41: ph2.8
  42: ph2.9
  43: ph3
  44: ph3.2
  45: ph3.5
  46: ph3.8
  47: ph4.2
  48: ph4.3
  49: ph4.8
  50: ph5.3
  51: ph5.5
  52: pb
  53: pr10
  54: pr100
  55: pr20
  56: pr30
  57: pr40
  58: pr45
  59: pr50
  60: pr60
  61: pr70
  62: pr80
  63: pr90
  64: p1
  65: p2
  66: p3
  67: p4
  68: p5
  69: p6
  70: p7
  71: p8
  72: p9
  73: p10
  74: p11
  75: p12
  76: p13
  77: p14
  78: p15
  79: p16
  80: p17
  81: p18
  82: p19
  83: p20
  84: p21
  85: p22
  86: p23
  87: p24
  88: p25
  89: p26
  90: p27
  91: p28
  92: pa8
  93: pa10
  94: pa12
  95: pa13
  96: pa14
  97: pb5
  98: pc
  99: pg
  100: ph1
  101: ph1.3
  102: ph1.5
  103: ph2
  104: ph3
  105: ph4
  106: ph5
  107: pi
  108: pl0
  109: pl4
  110: pl5
  111: pl8
  112: pl10
  113: pl15
  114: pl20
  115: pl25
  116: pl30
  117: pl35
  118: pl40
  119: pl50
  120: pl60
  121: pl65
  122: pl70
  123: pl80
  124: pl90
  125: pl100
  126: pl110
  127: pl120
  128: pm2
  129: pm8
  130: pm10
  131: pm13
  132: pm15
  133: pm20
  134: pm25
  135: pm30
  136: pm35
  137: pm40
  138: pm46
  139: pm50
  140: pm55
  141: pn
  142: pne
  143: po
  144: pr10
  145: pr100
  146: pr20
  147: pr30
  148: pr40
  149: pr45
  150: pr50
  151: pr60
  152: pr70
  153: pr80
  154: ps
  155: w1
  156: w2
  157: w3
  158: w5
  159: w8
  160: w10
  161: w12
  162: w13
  163: w16
  164: w18
  165: w20
  166: w21
  167: w22
  168: w24
  169: w28
  170: w30
  171: w31
  172: w32
  173: w34
  174: w35
  175: w37
  176: w38
  177: w41
  178: w42
  179: w43
  180: w44
  181: w45
  182: w46
  183: w47
  184: w48
  185: w49
  186: w50
  187: w51
  188: w52
  189: w53
  190: w54
  191: w55
  192: w56
  193: w57
  194: w58
  195: w59
  196: w60
  197: w62
  198: w63
  199: w66
  200: i1
  201: i2
  202: i3
  203: i4
  204: i5
  205: i6
  206: i7
  207: i8
  208: i9
  209: i10
  210: i11
  211: i12
  212: i13
  213: i14
  214: i15
  215: il60
  216: il80
  217: il100
  218: il110
  219: io
  220: ip

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import shutil
  from pathlib import Path

  from PIL import Image

  from ultralytics.utils import TQDM
  from ultralytics.utils.downloads import download


  def tt100k2yolo(dir):
      """Convert TT100K annotations to YOLO format with images/{split} and labels/{split} structure."""
      data_dir = dir / "data"
      anno_file = data_dir / "annotations.json"

      print("Loading annotations...")
      with open(anno_file, encoding="utf-8") as f:
          data = json.load(f)

      # Build class name to index mapping from yaml
      names = yaml["names"]
      class_to_idx = {v: k for k, v in names.items()}

      # Create directories
      for split in ["train", "val", "test"]:
          (dir / "images" / split).mkdir(parents=True, exist_ok=True)
          (dir / "labels" / split).mkdir(parents=True, exist_ok=True)

      print("Converting annotations to YOLO format...")
      skipped = 0
      for img_id, img_data in TQDM(data["imgs"].items(), desc="Processing"):
          img_path_str = img_data["path"]
          if "train" in img_path_str:
              split = "train"
          elif "test" in img_path_str:
              split = "test"
          else:
              split = "val"

          # Source and destination paths
          src_img = data_dir / img_path_str
          if not src_img.exists():
              continue

          dst_img = dir / "images" / split / src_img.name

          # Get image dimensions
          try:
              with Image.open(src_img) as img:
                  img_width, img_height = img.size
          except Exception as e:
              print(f"Error reading {src_img}: {e}")
              continue

          # Copy image to destination
          shutil.copy2(src_img, dst_img)

          # Convert annotations
          label_file = dir / "labels" / split / f"{src_img.stem}.txt"
          lines = []

          for obj in img_data.get("objects", []):
              category = obj["category"]
              if category not in class_to_idx:
                  skipped += 1
                  continue

              bbox = obj["bbox"]
              xmin, ymin = bbox["xmin"], bbox["ymin"]
              xmax, ymax = bbox["xmax"], bbox["ymax"]

              # Convert to YOLO format (normalized center coordinates and dimensions)
              x_center = ((xmin + xmax) / 2.0) / img_width
              y_center = ((ymin + ymax) / 2.0) / img_height
              width = (xmax - xmin) / img_width
              height = (ymax - ymin) / img_height

              # Clip to valid range
              x_center = max(0, min(1, x_center))
              y_center = max(0, min(1, y_center))
              width = max(0, min(1, width))
              height = max(0, min(1, height))

              cls_idx = class_to_idx[category]
              lines.append(f"{cls_idx} {x_center:.6f} {y_center:.6f} {width:.6f} {height:.6f}\n")

          # Write label file
          if lines:
              label_file.write_text("".join(lines), encoding="utf-8")

      if skipped:
          print(f"Skipped {skipped} annotations with unknown categories")
      print("Conversion complete!")


  # Download
  dir = Path(yaml["path"])  # dataset root dir
  urls = ["https://cg.cs.tsinghua.edu.cn/traffic-sign/data_model_code/data.zip"]
  download(urls, dir=dir, curl=True, threads=1)

  # Convert
  tt100k2yolo(dir)

用法

要使用图像尺寸为640的TT100K数据集对YOLO11 进行100个 epoch的训练,可使用以下代码片段。首次使用时,数据集将自动下载并转换为YOLO 。

训练示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model - dataset will auto-download on first run
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
# Dataset will auto-download and convert on first run
yolo detect train data=TT100K.yaml model=yolo11n.pt epochs=100 imgsz=640

Sample Images 和注释

以下是TT100K数据集中的典型示例:

  1. 城市环境:街道场景中包含多个交通标志,这些标志分布在不同距离处。
  2. 公路场景:高速路标,包括限速标志和方向指示牌
  3. 复杂交叉口:多个标识牌在近距离内以不同方向排列
  4. 严苛条件:在不同光照(昼/夜)、天气(雨/雾)及视角下的标识

该数据集包含:

  1. 特写标识:占据画面显著位置的大型清晰标识
  2. 远距离标识:需要精细检测能力的小型标识
  3. 部分遮挡标志:标志被车辆、树木或其他物体部分遮挡
  4. 每张图像包含多个标识:图像中包含多种不同类型的标识

引用和致谢

若您在研究或开发工作中使用了TT100K数据集,请引用以下论文:

@InProceedings{Zhu_2016_CVPR,
    author = {Zhu, Zhe and Liang, Dun and Zhang, Songhai and Huang, Xiaolei and Li, Baoli and Hu, Shimin},
    title = {Traffic-Sign Detection and Classification in the Wild},
    booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    month = {June},
    year = {2016}
}

我们谨此感谢清华大学与腾讯的合作,为计算机视觉和自动驾驶领域创建并维护了这一宝贵资源。有关TT100K数据集的更多信息,请访问官方数据集网站

常见问题

TT100K数据集用于什么?

清华-腾讯10万数据集(TT100K)专为真实环境中的交通标志检测与分类而设计,主要用于:

  1. 训练自动驾驶感知系统
  2. 开发高级驾驶辅助系统(ADAS)
  3. 在不同条件下进行鲁棒目标检测的研究
  4. 交通标志识别算法基准测试
  5. 在大图像中对小对象进行模型性能测试

凭借10万张多样化的街景图像和221类交通标志,该系统为现实世界中的交通标志检测提供了全面的测试平台。

TT100K中包含多少类交通标志?

TT100K数据集包含221种不同的交通标志类别,包括:

  1. 限速:pl5至pl120(禁止限速)及pm5至pm55(最低限速)
  2. 禁止标志:28种以上通用禁止类型(p1-p28)及限制类型(pr*、pn、pne)
  3. 警告标志:60余种警告类别(w1-w66)
  4. 高度/宽度限制:物理限制适用于ph 和pb系列
  5. 信息标识:i1-i15、il*、io、ip(用于指引与信息)

本指南全面涵盖了中国道路网络中常见的大多数交通标志。

如何使用TT100K数据集训练YOLO11n模型?

要使用图像尺寸为640的TT100K数据集对YOLO11n模型进行100个 epoch 的训练,请使用以下示例:

训练示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=TT100K.yaml model=yolo11n.pt epochs=100 imgsz=640

有关详细的训练配置,请参阅训练文档。

与其他数据集相比,TT100K的挑战性体现在哪些方面?

TT100K赛事面临若干独特挑战:

  1. 标识尺寸变化:标识尺寸从极小(远处的高速公路标识)到较大(近处的城市标识)不等。
  2. 真实环境条件:光照、天气及视角的极端变化
  3. 高分辨率:2048×2048像素的图像需要强大的处理能力
  4. 类不平衡:某些标记类型远比其他类型常见
  5. 密集场景:单张图像中可能出现多个标识
  6. 部分遮挡:标志可能被车辆、植被或建筑物部分遮挡

这些挑战使TT100K成为开发强大检测算法的重要基准。

如何处理TT100K中的大尺寸图像?

TT100K数据集采用2048×2048像素的图像,可能需要大量资源。以下是推荐策略:

用于培训:

# Option 1: Resize to standard YOLO size
model.train(data="TT100K.yaml", imgsz=640, batch=16)

# Option 2: Use larger size for better small object detection
model.train(data="TT100K.yaml", imgsz=1280, batch=4)

# Option 3: Multi-scale training
model.train(data="TT100K.yaml", imgsz=640, scale=0.5)  # trains at varying scales

建议:

  • 从...开始 imgsz=640 用于初步实验
  • 使用 imgsz=1280 如果你拥有足够的GPU (24GB+)
  • 考虑微小标识的铺贴策略
  • 使用梯度累积来模拟更大的批量大小


📅 1 天前创建 ✏️ 1 天前更新
glenn-jocher普拉尚特·迪克西特0

评论