跳至内容

VisDrone 数据集

VisDrone 数据集是由中国天津大学机器学习与数据挖掘实验室的 AISKYEYE 团队创建的一个大型基准。它包含经过仔细注释的地面真实数据,用于与基于无人机的图像和视频分析相关的各种计算机视觉任务。

VisDrone由288个视频片段、261,908帧图像和10,209张静态图像组成,这些视频片段和图像由不同的无人机摄像头拍摄。数据集涵盖了多个方面,包括地点(中国 14 个不同城市)、环境(城市和农村)、物体(行人、车辆、自行车等)和密度(稀疏和拥挤场景)。数据集是在不同场景、天气和照明条件下使用各种无人机平台收集的。这些帧由人工标注了超过 260 万个目标(如行人、汽车、自行车和三轮车)的边界框。为了更好地利用数据,还提供了场景可见度、物体类别和遮挡等属性。

数据集结构

VisDrone 数据集分为五个主要子集,每个子集都侧重于特定任务:

  1. 任务 1:图像中的物体检测
  2. 任务 2:视频中的物体检测
  3. 任务 3:单个目标跟踪
  4. 任务 4:多目标跟踪
  5. 任务 5:人群计数

应用

VisDrone 数据集广泛用于训练和评估基于无人机的计算机视觉任务中的深度学习模型,如物体检测、物体跟踪和人群计数。该数据集包含多种传感器数据、物体注释和属性,是无人机计算机视觉领域研究人员和从业人员的宝贵资源。

数据集 YAML

YAML(另一种标记语言)文件用于定义数据集配置。它包含数据集的路径、类和其他相关信息。就 Visdrone 数据集而言,YAML 文件中的 VisDrone.yaml 文件保存在 https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml.

ultralytics/cfg/datasets/VisDrone.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# VisDrone2019-DET dataset https://github.com/VisDrone/VisDrone-Dataset by Tianjin University
# Documentation: https://docs.ultralytics.com/datasets/detect/visdrone/
# Example usage: yolo train data=VisDrone.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── VisDrone  ← downloads here (2.3 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/VisDrone # dataset root dir
train: VisDrone2019-DET-train/images # train images (relative to 'path')  6471 images
val: VisDrone2019-DET-val/images # val images (relative to 'path')  548 images
test: VisDrone2019-DET-test-dev/images # test images (optional)  1610 images

# Classes
names:
  0: pedestrian
  1: people
  2: bicycle
  3: car
  4: van
  5: truck
  6: tricycle
  7: awning-tricycle
  8: bus
  9: motor

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import os
  from pathlib import Path

  from ultralytics.utils.downloads import download

  def visdrone2yolo(dir):
      from PIL import Image
      from tqdm import tqdm

      def convert_box(size, box):
          # Convert VisDrone box to YOLO xywh box
          dw = 1. / size[0]
          dh = 1. / size[1]
          return (box[0] + box[2] / 2) * dw, (box[1] + box[3] / 2) * dh, box[2] * dw, box[3] * dh

      (dir / 'labels').mkdir(parents=True, exist_ok=True)  # make labels directory
      pbar = tqdm((dir / 'annotations').glob('*.txt'), desc=f'Converting {dir}')
      for f in pbar:
          img_size = Image.open((dir / 'images' / f.name).with_suffix('.jpg')).size
          lines = []
          with open(f, 'r') as file:  # read annotation.txt
              for row in [x.split(',') for x in file.read().strip().splitlines()]:
                  if row[4] == '0':  # VisDrone 'ignored regions' class 0
                      continue
                  cls = int(row[5]) - 1
                  box = convert_box(img_size, tuple(map(int, row[:4])))
                  lines.append(f"{cls} {' '.join(f'{x:.6f}' for x in box)}\n")
                  with open(str(f).replace(f'{os.sep}annotations{os.sep}', f'{os.sep}labels{os.sep}'), 'w') as fl:
                      fl.writelines(lines)  # write label.txt


  # Download
  dir = Path(yaml['path'])  # dataset root dir
  urls = ['https://github.com/ultralytics/yolov5/releases/download/v1.0/VisDrone2019-DET-train.zip',
          'https://github.com/ultralytics/yolov5/releases/download/v1.0/VisDrone2019-DET-val.zip',
          'https://github.com/ultralytics/yolov5/releases/download/v1.0/VisDrone2019-DET-test-dev.zip',
          'https://github.com/ultralytics/yolov5/releases/download/v1.0/VisDrone2019-DET-test-challenge.zip']
  download(urls, dir=dir, curl=True, threads=4)

  # Convert
  for d in 'VisDrone2019-DET-train', 'VisDrone2019-DET-val', 'VisDrone2019-DET-test-dev':
      visdrone2yolo(dir / d)  # convert VisDrone annotations to YOLO labels

使用方法

要在图像大小为 640 的 VisDrone 数据集上训练YOLOv8n 模型 100 次,可以使用以下代码片段。有关可用参数的完整列表,请参阅模型训练页面。

列车示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="VisDrone.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=VisDrone.yaml model=yolov8n.pt epochs=100 imgsz=640

样本数据和注释

VisDrone 数据集包含由安装在无人机上的相机拍摄的各种图像和视频。下面是数据集中的一些数据示例及其相应的注释:

数据集样本图像

  • 任务 1:图像中的物体检测 - 这幅图像展示了图像中物体检测的一个示例,其中的物体都标注了边界框。该数据集提供了从不同地点、环境和密度拍摄的各种图像,便于为这项任务开发模型。

该示例展示了 VisDrone 数据集中数据的多样性和复杂性,并强调了高质量传感器数据对于无人机计算机视觉任务的重要性。

引文和致谢

如果您在研究或开发工作中使用 VisDrone 数据集,请引用以下论文:

@ARTICLE{9573394,
  author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
  title={Detection and Tracking Meet Drones Challenge},
  year={2021},
  volume={},
  number={},
  pages={1-1},
  doi={10.1109/TPAMI.2021.3119563}}

天津大学机器学习与数据挖掘实验室的 AISKYEYE 团队创建并维护了 VisDrone 数据集,为基于无人机的计算机视觉研究界提供了宝贵的资源,在此表示感谢。有关 VisDrone 数据集及其创建者的更多信息,请访问VisDrone 数据集 GitHub 存储库



创建于 2023-11-12,更新于 2024-05-18
作者:glenn-jocher(4),Laughing-q(1)

评论