İçeriğe geç

TT100K Veri Seti

Tsinghua-Tencent 100K (TT100K), 100.000 Tencent Street View panoramasından oluşturulmuş büyük ölçekli bir trafik işareti kıyaslama veri setidir. Bu veri seti, gerçek dünya koşullarında trafik işareti tespiti ve sınıflandırması için özel olarak tasarlanmış olup, araştırmacılara ve geliştiricilere sağlam trafik işareti tanıma sistemleri oluşturmak için kapsamlı bir kaynak sağlar.

Veri seti, 100.000 görüntü ve 221 farklı kategoriye yayılmış 30.000'den fazla trafik işareti örneği içerir. Bu görüntüler, aydınlatma, hava koşulları, görüş açıları ve mesafelerdeki büyük farklılıkları yakalayarak, çeşitli gerçek dünya senaryolarında güvenilir bir şekilde performans göstermesi gereken modelleri eğitmek için ideal hale getirir.

Bu veri seti özellikle şunlar için değerlidir:

  • Otonom sürüş sistemleri
  • Gelişmiş sürücü destek sistemleri (ADAS)
  • Trafik izleme uygulamaları
  • Şehir planlama ve trafik analizi
  • Gerçek dünya koşullarında bilgisayar görüşü araştırması

Temel Özellikler

TT100K veri seti birkaç temel avantaj sunar:

  • Ölçek: 100.000 yüksek çözünürlüklü görüntü (2048×2048 piksel)
  • Çeşitlilik: Çin trafik işaretlerini kapsayan 221 trafik işareti kategorisi
  • Gerçek dünya koşulları: Hava durumu, aydınlatma ve görüş açılarında büyük farklılıklar
  • Zengin açıklamalar: Her işaret sınıf etiketi, sınırlayıcı kutu ve piksel maskesi içerir
  • Kapsamlı kapsama: Yasaklayıcı, uyarı, zorunlu ve bilgilendirici işaretleri içerir
  • Eğitim/Test ayrımı: Tutarlı değerlendirme için önceden tanımlanmış ayrımlar

Veri Seti Yapısı

TT100K veri seti üç alt kümeye ayrılmıştır:

  1. Eğitim Seti: Farklı trafik işareti türlerini detect etmek ve classify etmek için modelleri eğitmek amacıyla kullanılan trafik sahnesi görüntülerinin birincil koleksiyonu.
  2. Doğrulama Seti: Model geliştirme sırasında performansı izlemek ve hiperparametreleri ayarlamak için kullanılan bir alt küme.
  3. Test Kümesi: Nihai modelin gerçek dünya senaryolarında trafik işaretlerini detect ve classify etme yeteneğini değerlendirmek için ayrılmış bir görüntü koleksiyonu.

TT100K veri seti, birkaç ana gruba ayrılmış 221 trafik işareti kategorisi içerir:

Hız Sınırı İşaretleri (pl, pm)

  1. pl_: Yasaklayıcı hız limitleri (pl5, pl10, pl20, pl30, pl40, pl50, pl60, pl70, pl80, pl100, pl120)
  2. pm_: Minimum hız limitleri (pm5, pm10, pm20, pm30, pm40, pm50, pm55)

Yasaklayıcı İşaretler (p, pn, pr_)

  1. p1-p28: Genel yasaklayıcı işaretler (giriş yok, park yasak, durmak yasak vb.)
  2. pn/pne: Giriş yok ve park yasak işaretleri
  3. pr: Çeşitli kısıtlama işaretleri (pr10, pr20, pr30, pr40, pr50 vb.)

Uyarı İşaretleri (w_)

  1. w1-w66: Çeşitli yol tehlikeleri, koşulları ve durumları için uyarı işaretleri
  2. Yaya geçitleri, keskin virajlar, kaygan yollar, hayvanlar, inşaat vb. içerir.

Yükseklik/Genişlik Sınırı İşaretleri (ph, pb)

  1. ph_: Yükseklik sınırı işaretleri (ph2, ph2.5, ph3, ph3.5, ph4, ph4.5, ph5 vb.)
  2. pb_: Genişlik sınırı işaretleri

Bilgilendirici İşaretler (i, il, io, ip)

  1. i1-i15: Genel bilgilendirici işaretler
  2. il_: Hız sınırı bilgisi (il60, il80, il100, il110)
  3. io: Diğer bilgilendirici işaretler
  4. ip: Bilgi levhaları

Veri Seti YAML

Veri kümesi yapılandırmasını tanımlamak için bir yaml (Yet Another Markup Language) dosyası kullanılır. Bu dosya, veri kümesinin yolları, sınıfları ve diğer ilgili bilgileri içerir. TT100K veri kümesi için, TT100K.yaml dosyası otomatik indirme ve dönüştürme işlevselliği içerir.

ultralytics/cfg/datasets/TT100K.yaml

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# Tsinghua-Tencent 100K (TT100K) dataset https://cg.cs.tsinghua.edu.cn/traffic-sign/ by Tsinghua University
# Documentation: https://cg.cs.tsinghua.edu.cn/traffic-sign/tutorial.html
# Paper: Traffic-Sign Detection and Classification in the Wild (CVPR 2016)
# License: CC BY-NC 2.0 license for non-commercial use only
# Example usage: yolo train data=TT100K.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── TT100K ← downloads here (~18 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: TT100K # dataset root dir
train: images/train # train images (relative to 'path') 6105 images
val: images/val # val images (relative to 'path') 7641 images (original 'other' split)
test: images/test # test images (relative to 'path') 3071 images

# Classes (221 traffic sign categories, 45 with sufficient training instances)
names:
  0: pl5
  1: pl10
  2: pl15
  3: pl20
  4: pl25
  5: pl30
  6: pl40
  7: pl50
  8: pl60
  9: pl70
  10: pl80
  11: pl90
  12: pl100
  13: pl110
  14: pl120
  15: pm5
  16: pm10
  17: pm13
  18: pm15
  19: pm20
  20: pm25
  21: pm30
  22: pm35
  23: pm40
  24: pm46
  25: pm50
  26: pm55
  27: pm8
  28: pn
  29: pne
  30: ph4
  31: ph4.5
  32: ph5
  33: ps
  34: pg
  35: ph1.5
  36: ph2
  37: ph2.1
  38: ph2.2
  39: ph2.4
  40: ph2.5
  41: ph2.8
  42: ph2.9
  43: ph3
  44: ph3.2
  45: ph3.5
  46: ph3.8
  47: ph4.2
  48: ph4.3
  49: ph4.8
  50: ph5.3
  51: ph5.5
  52: pb
  53: pr10
  54: pr100
  55: pr20
  56: pr30
  57: pr40
  58: pr45
  59: pr50
  60: pr60
  61: pr70
  62: pr80
  63: pr90
  64: p1
  65: p2
  66: p3
  67: p4
  68: p5
  69: p6
  70: p7
  71: p8
  72: p9
  73: p10
  74: p11
  75: p12
  76: p13
  77: p14
  78: p15
  79: p16
  80: p17
  81: p18
  82: p19
  83: p20
  84: p21
  85: p22
  86: p23
  87: p24
  88: p25
  89: p26
  90: p27
  91: p28
  92: pa8
  93: pa10
  94: pa12
  95: pa13
  96: pa14
  97: pb5
  98: pc
  99: pg
  100: ph1
  101: ph1.3
  102: ph1.5
  103: ph2
  104: ph3
  105: ph4
  106: ph5
  107: pi
  108: pl0
  109: pl4
  110: pl5
  111: pl8
  112: pl10
  113: pl15
  114: pl20
  115: pl25
  116: pl30
  117: pl35
  118: pl40
  119: pl50
  120: pl60
  121: pl65
  122: pl70
  123: pl80
  124: pl90
  125: pl100
  126: pl110
  127: pl120
  128: pm2
  129: pm8
  130: pm10
  131: pm13
  132: pm15
  133: pm20
  134: pm25
  135: pm30
  136: pm35
  137: pm40
  138: pm46
  139: pm50
  140: pm55
  141: pn
  142: pne
  143: po
  144: pr10
  145: pr100
  146: pr20
  147: pr30
  148: pr40
  149: pr45
  150: pr50
  151: pr60
  152: pr70
  153: pr80
  154: ps
  155: w1
  156: w2
  157: w3
  158: w5
  159: w8
  160: w10
  161: w12
  162: w13
  163: w16
  164: w18
  165: w20
  166: w21
  167: w22
  168: w24
  169: w28
  170: w30
  171: w31
  172: w32
  173: w34
  174: w35
  175: w37
  176: w38
  177: w41
  178: w42
  179: w43
  180: w44
  181: w45
  182: w46
  183: w47
  184: w48
  185: w49
  186: w50
  187: w51
  188: w52
  189: w53
  190: w54
  191: w55
  192: w56
  193: w57
  194: w58
  195: w59
  196: w60
  197: w62
  198: w63
  199: w66
  200: i1
  201: i2
  202: i3
  203: i4
  204: i5
  205: i6
  206: i7
  207: i8
  208: i9
  209: i10
  210: i11
  211: i12
  212: i13
  213: i14
  214: i15
  215: il60
  216: il80
  217: il100
  218: il110
  219: io
  220: ip

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import shutil
  from pathlib import Path

  from PIL import Image

  from ultralytics.utils import TQDM
  from ultralytics.utils.downloads import download


  def tt100k2yolo(dir):
      """Convert TT100K annotations to YOLO format with images/{split} and labels/{split} structure."""
      data_dir = dir / "data"
      anno_file = data_dir / "annotations.json"

      print("Loading annotations...")
      with open(anno_file, encoding="utf-8") as f:
          data = json.load(f)

      # Build class name to index mapping from yaml
      names = yaml["names"]
      class_to_idx = {v: k for k, v in names.items()}

      # Create directories
      for split in ["train", "val", "test"]:
          (dir / "images" / split).mkdir(parents=True, exist_ok=True)
          (dir / "labels" / split).mkdir(parents=True, exist_ok=True)

      print("Converting annotations to YOLO format...")
      skipped = 0
      for img_id, img_data in TQDM(data["imgs"].items(), desc="Processing"):
          img_path_str = img_data["path"]
          if "train" in img_path_str:
              split = "train"
          elif "test" in img_path_str:
              split = "test"
          else:
              split = "val"

          # Source and destination paths
          src_img = data_dir / img_path_str
          if not src_img.exists():
              continue

          dst_img = dir / "images" / split / src_img.name

          # Get image dimensions
          try:
              with Image.open(src_img) as img:
                  img_width, img_height = img.size
          except Exception as e:
              print(f"Error reading {src_img}: {e}")
              continue

          # Copy image to destination
          shutil.copy2(src_img, dst_img)

          # Convert annotations
          label_file = dir / "labels" / split / f"{src_img.stem}.txt"
          lines = []

          for obj in img_data.get("objects", []):
              category = obj["category"]
              if category not in class_to_idx:
                  skipped += 1
                  continue

              bbox = obj["bbox"]
              xmin, ymin = bbox["xmin"], bbox["ymin"]
              xmax, ymax = bbox["xmax"], bbox["ymax"]

              # Convert to YOLO format (normalized center coordinates and dimensions)
              x_center = ((xmin + xmax) / 2.0) / img_width
              y_center = ((ymin + ymax) / 2.0) / img_height
              width = (xmax - xmin) / img_width
              height = (ymax - ymin) / img_height

              # Clip to valid range
              x_center = max(0, min(1, x_center))
              y_center = max(0, min(1, y_center))
              width = max(0, min(1, width))
              height = max(0, min(1, height))

              cls_idx = class_to_idx[category]
              lines.append(f"{cls_idx} {x_center:.6f} {y_center:.6f} {width:.6f} {height:.6f}\n")

          # Write label file
          if lines:
              label_file.write_text("".join(lines), encoding="utf-8")

      if skipped:
          print(f"Skipped {skipped} annotations with unknown categories")
      print("Conversion complete!")


  # Download
  dir = Path(yaml["path"])  # dataset root dir
  urls = ["https://cg.cs.tsinghua.edu.cn/traffic-sign/data_model_code/data.zip"]
  download(urls, dir=dir, curl=True, threads=1)

  # Convert
  tt100k2yolo(dir)

Kullanım

TT100K veri kümesinde 640 görüntü boyutuyla 100 epoch boyunca bir YOLO26 modeli eğitmek için aşağıdaki kod parçacıklarını kullanabilirsiniz. Veri kümesi ilk kullanımda otomatik olarak indirilecek ve YOLO formatına dönüştürülecektir.

Eğitim Örneği

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n.pt")  # load a pretrained model (recommended for training)

# Train the model - dataset will auto-download on first run
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
# Dataset will auto-download and convert on first run
yolo detect train data=TT100K.yaml model=yolo26n.pt epochs=100 imgsz=640

Örnek Görüntüler ve Açıklamalar

İşte TT100K veri kümesinden tipik örnekler:

  1. Kentsel ortamlar: Çeşitli mesafelerde birden fazla trafik işareti içeren sokak sahneleri
  2. Otoyol sahneleri: Hız sınırları ve yön göstergeleri dahil olmak üzere yüksek hızlı yol işaretleri
  3. Karmaşık kavşaklar: Değişen yönelimlere sahip, birbirine yakın birden fazla işaret
  4. Zorlu koşullar: Farklı aydınlatma (gündüz/gece), hava durumu (yağmur/sis) ve görüş açıları altındaki işaretler

Veri kümesi şunları içerir:

  1. Yakın çekim işaretler: Görüntü alanının önemli bir kısmını kaplayan büyük, net bir şekilde görülebilen işaretler
  2. Uzak işaretler: İnce taneli detect yetenekleri gerektiren küçük işaretler
  3. Kısmen engellenmiş işaretler: Araçlar, ağaçlar veya diğer nesneler tarafından kısmen engellenen işaretler
  4. Görüntü başına birden fazla işaret: Birkaç farklı işaret türü içeren görüntüler

Alıntılar ve Teşekkürler

Araştırma veya geliştirme çalışmalarınızda TT100K veri kümesini kullanırsanız, lütfen aşağıdaki makaleyi kaynak gösterin:

@InProceedings{Zhu_2016_CVPR,
    author = {Zhu, Zhe and Liang, Dun and Zhang, Songhai and Huang, Xiaolei and Li, Baoli and Hu, Shimin},
    title = {Traffic-Sign Detection and Classification in the Wild},
    booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    month = {June},
    year = {2016}
}

Tsinghua Üniversitesi ve Tencent iş birliğine, bilgisayar görüşü ve otonom sürüş toplulukları için bu değerli kaynağı oluşturdukları ve sürdürdükleri için teşekkür ederiz. TT100K veri kümesi hakkında daha fazla bilgi için resmi veri kümesi web sitesini ziyaret edin.

SSS

TT100K veri seti ne için kullanılır?

Tsinghua-Tencent 100K (TT100K) veri kümesi, gerçek dünya koşullarında trafik işareti detect ve sınıflandırması için özel olarak tasarlanmıştır. Başlıca şunlar için kullanılır:

  1. Otonom sürüş algılama sistemlerinin eğitimi
  2. Gelişmiş Sürücü Destek Sistemleri (ADAS) geliştirme
  3. Değişen koşullar altında sağlam nesne detect araştırmaları
  4. Trafik işareti tanıma algoritmalarının kıyaslanması
  5. Büyük görüntülerdeki küçük nesneler üzerinde model performansını test etme

100.000 çeşitli sokak görünümü görüntüsü ve 221 trafik işareti kategorisiyle, gerçek dünya trafik işareti detect için kapsamlı bir test ortamı sunar.

TT100K'da kaç trafik işareti kategorisi var?

TT100K veri seti, 221 farklı trafik işareti kategorisi içerir:

  1. Hız limitleri: pl5'ten pl120'ye kadar (yasaklayıcı limitler) ve pm5'ten pm55'e kadar (minimum hızlar)
  2. Yasaklayıcı işaretler: 28'den fazla genel yasaklama türü (p1-p28) artı kısıtlamalar (pr*, pn, pne)
  3. Uyarı işaretleri: 60'tan fazla uyarı kategorisi (w1-w66)
  4. Yükseklik/genişlik limitleri: fiziksel kısıtlamalar için ph ve pb serileri
  5. Bilgilendirici işaretler: rehberlik ve bilgi için i1-i15, il*, io, ip

Bu kapsamlı kapsama alanı, Çin yol ağlarında bulunan çoğu trafik işaretini içerir.

TT100K veri kümesini kullanarak bir YOLO26n modeli nasıl eğitebilirim?

TT100K veri kümesi üzerinde 640 görüntü boyutuyla 100 epok boyunca bir YOLO26n modeli eğitmek için aşağıdaki örneği kullanın.

Eğitim Örneği

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="TT100K.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=TT100K.yaml model=yolo26n.pt epochs=100 imgsz=640

Ayrıntılı eğitim yapılandırmaları için Eğitim belgelerine bakın.

TT100K'yı diğer veri setlerine göre zorlu kılan nedir?

TT100K, bazı benzersiz zorluklar sunar:

  1. Ölçek varyasyonu: İşaretler çok küçükten (uzak otoyol işaretleri) büyüğe (yakın şehir işaretleri) kadar değişir
  2. Gerçek dünya koşulları: Aydınlatma, hava durumu ve görüş açılarında aşırı farklılıklar
  3. Yüksek çözünürlük: 2048×2048 piksellik görüntüler önemli işlem gücü gerektirir
  4. Sınıf dengesizliği: Bazı işaret türleri diğerlerinden çok daha yaygındır
  5. Yoğun sahneler: Tek bir görüntüde birden fazla işaret görünebilir
  6. Kısmi tıkanıklık: İşaretler araçlar, bitki örtüsü veya yapılar tarafından kısmen engellenebilir

Bu zorluklar, TT100K'yı sağlam detect algoritmaları geliştirmek için değerli bir kıyaslama noktası haline getirir.

TT100K'daki büyük görüntü boyutlarını nasıl yönetirim?

TT100K veri kümesi, kaynak yoğun olabilen 2048×2048 piksellik görüntüler kullanır. İşte önerilen stratejiler:

Eğitim İçin:

# Option 1: Resize to standard YOLO size
model.train(data="TT100K.yaml", imgsz=640, batch=16)

# Option 2: Use larger size for better small object detection
model.train(data="TT100K.yaml", imgsz=1280, batch=4)

# Option 3: Multi-scale training
model.train(data="TT100K.yaml", imgsz=640, scale=0.5)  # trains at varying scales

Öneriler:

  • Şununla başlayın: imgsz=640 ilk deneyler için
  • Kullanım imgsz=1280 yeterli GPU belleğiniz varsa (24GB+)
  • Çok küçük işaretler için döşeme stratejilerini düşünün
  • Daha büyük yığın boyutlarını simüle etmek için gradyan birikimini kullanın


📅 29 gün önce oluşturuldu ✏️ 23 gün önce güncellendi
glenn-jocherPrashantDixit0

Yorumlar