VisDroneデータセット
VisDroneデータセットは、中国天津大学機械学習・データマイニング研究室のAISKYEYEチームによって作成された大規模ベンチマークである。このデータセットには、ドローンベースの画像およびビデオ解析に関連するさまざまなコンピュータビジョンタスクのための、注意深く注釈が付けられたグランドトゥルースデータが含まれている。
見るんだ: ドローン画像解析のためのVisDroneデータセットでUltralytics YOLO モデルを訓練する方法
VisDroneは、様々なドローン搭載カメラで撮影された261,908フレームの288のビデオクリップと10,209の静止画像で構成されている。このデータセットは、場所(中国全土の14都市)、環境(都市と農村)、対象物(歩行者、車両、自転車など)、密度(疎らなシーンと混雑したシーン)など、幅広い側面をカバーしている。データセットは、様々なシナリオ、天候や照明条件下で、様々なドローンプラットフォームを使用して収集された。これらのフレームには、歩行者、車、自転車、三輪車などのターゲットの260万以上のバウンディングボックスが手動で注釈されている。より良いデータ活用のために、シーンの可視性、オブジェクトクラス、オクルージョンなどの属性も提供されている。
データセット構造
VisDroneデータセットは5つのサブセットに分かれており、それぞれが特定のタスクに焦点を当てている:
- タスク 1:画像中の物体検出
- タスク2:ビデオ内の物体検出
- タスク3:単一オブジェクトのトラッキング
- タスク4:マルチオブジェクト・トラッキング
- タスク5:群衆のカウント
アプリケーション
VisDroneデータセットは、物体検出、物体追跡、群衆カウントなどのドローンベースのコンピュータビジョンタスクにおけるディープラーニングモデルのトレーニングと評価に広く使用されています。このデータセットの多様なセンサーデータ、オブジェクトアノテーション、属性は、ドローンベースのコンピュータビジョン分野の研究者や実務家にとって貴重なリソースとなっている。
データセット YAML
YAML (Yet Another Markup Language) ファイルはデータセットの設定を定義するために使われる。このファイルには、データセットのパス、クラス、その他の関連情報が含まれている。Visdrone データセットの場合は VisDrone.yaml
ファイルは https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml.
ultralytics/cfg/datasets/VisDrone.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# VisDrone2019-DET dataset https://github.com/VisDrone/VisDrone-Dataset by Tianjin University
# Documentation: https://docs.ultralytics.com/datasets/detect/visdrone/
# Example usage: yolo train data=VisDrone.yaml
# parent
# ├── ultralytics
# └── datasets
# └── VisDrone ← downloads here (2.3 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/VisDrone # dataset root dir
train: VisDrone2019-DET-train/images # train images (relative to 'path') 6471 images
val: VisDrone2019-DET-val/images # val images (relative to 'path') 548 images
test: VisDrone2019-DET-test-dev/images # test images (optional) 1610 images
# Classes
names:
0: pedestrian
1: people
2: bicycle
3: car
4: van
5: truck
6: tricycle
7: awning-tricycle
8: bus
9: motor
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import os
from pathlib import Path
from ultralytics.utils.downloads import download
def visdrone2yolo(dir):
from PIL import Image
from tqdm import tqdm
def convert_box(size, box):
# Convert VisDrone box to YOLO xywh box
dw = 1. / size[0]
dh = 1. / size[1]
return (box[0] + box[2] / 2) * dw, (box[1] + box[3] / 2) * dh, box[2] * dw, box[3] * dh
(dir / 'labels').mkdir(parents=True, exist_ok=True) # make labels directory
pbar = tqdm((dir / 'annotations').glob('*.txt'), desc=f'Converting {dir}')
for f in pbar:
img_size = Image.open((dir / 'images' / f.name).with_suffix('.jpg')).size
lines = []
with open(f, 'r') as file: # read annotation.txt
for row in [x.split(',') for x in file.read().strip().splitlines()]:
if row[4] == '0': # VisDrone 'ignored regions' class 0
continue
cls = int(row[5]) - 1
box = convert_box(img_size, tuple(map(int, row[:4])))
lines.append(f"{cls} {' '.join(f'{x:.6f}' for x in box)}\n")
with open(str(f).replace(f'{os.sep}annotations{os.sep}', f'{os.sep}labels{os.sep}'), 'w') as fl:
fl.writelines(lines) # write label.txt
# Download
dir = Path(yaml['path']) # dataset root dir
urls = ['https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-train.zip',
'https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-val.zip',
'https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-dev.zip',
'https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-challenge.zip']
download(urls, dir=dir, curl=True, threads=4)
# Convert
for d in 'VisDrone2019-DET-train', 'VisDrone2019-DET-val', 'VisDrone2019-DET-test-dev':
visdrone2yolo(dir / d) # convert VisDrone annotations to YOLO labels
使用方法
VisDroneデータセットでYOLO11nモデルを画像サイズ640で100エポック学習させるには、以下のコードスニペットを使用します。使用可能な引数の包括的なリストについては、モデルのトレーニングページを参照してください。
列車の例
サンプルデータと注釈
VisDroneデータセットには、ドローンに搭載されたカメラで撮影された様々な画像や動画が含まれています。このデータセットに含まれるデータの例を、対応するアノテーションとともに紹介する:
- タスク1:画像中の物体検出- この画像は画像中の物体検出の例を示しており、物体はバウンディングボックスで注釈されている。データセットは、このタスクのモデル開発を容易にするために、異なる場所、環境、密度で撮影された多種多様な画像を提供する。
この例は、VisDroneデータセットのデータの多様性と複雑性を示し、ドローンベースのコンピュータビジョンタスクにおける高品質センサーデータの重要性を強調している。
引用と謝辞
研究開発でVisDroneデータセットを使用する場合は、以下の論文を引用してください:
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}}
VisDroneデータセットをドローンベースのコンピュータビジョン研究コミュニティの貴重なリソースとして作成・維持している中国・天津大学機械学習・データマイニング研究室のAISKYEYEチームに感謝したい。VisDroneデータセットとその作成者についての詳細は、VisDrone Dataset GitHubリポジトリをご覧ください。
よくあるご質問
VisDroneデータセットとその主な特徴は?
VisDroneデータセットは、中国天津大学のAISKYEYEチームによって作成された大規模ベンチマークである。ドローンベースの画像およびビデオ解析に関連するさまざまなコンピュータビジョンタスクのために設計されている。主な特徴は以下の通り:
- 構成:288ビデオクリップ、261,908フレーム、10,209静止画像。
- 注釈:歩行者、車、自転車、三輪車などのオブジェクトのバウンディングボックスは260万以上。
- 多様性:14の都市、都市と農村の環境、異なる天候と照明条件の下で収集された。
- タスク:画像や動画における物体検出、単一物体および複数物体の追跡、群衆計数。
VisDroneデータセットを使用して、Ultralytics でYOLO11 モデルをトレーニングするにはどうすればよいですか?
VisDroneデータセットでYOLO11 モデルを画像サイズ640で100エポック学習させるには、以下の手順に従います:
列車の例
その他の設定オプションについては、モデル・トレーニングのページを参照してください。
VisDroneデータセットの主なサブセットとその用途は?
VisDroneデータセットは主に5つのサブセットに分かれており、それぞれが特定のコンピュータビジョンタスク用に調整されている:
- タスク1:画像中の物体検出
- タスク2:ビデオ内のオブジェクト検出。
- タスク3:単一オブジェクトのトラッキング
- タスク4:マルチオブジェクトトラッキング
- タスク5:群衆の数を数える。
これらのサブセットは、監視、交通監視、公共安全などのドローンベースのアプリケーションにおけるディープラーニングモデルの訓練と評価に広く使用されている。
Ultralytics 、VisDroneデータセットの設定ファイルはどこにありますか?
VisDrone データセットの設定ファイル、 VisDrone.yaml
へのリンクは、Ultralytics のリポジトリで見ることができる:
VisDrone.yaml.
VisDrone データセットを研究で使用する場合、どのように引用できますか?
研究開発でVisDroneデータセットを使用する場合は、以下の論文を引用してください:
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}
}