VisDroneデータセット
VisDroneデータセットは、中国の天津大学の機械学習とデータマイニング研究所のAISKYEYEチームによって作成された大規模なベンチマークです。ドローンベースの画像およびビデオ分析に関連するさまざまなコンピュータビジョンタスクのために、注意深くアノテーションが付けられたグラウンドトゥルースデータが含まれています。
見る: ドローン画像解析のためのVisDroneデータセットでUltralytics YOLOモデルを学習する方法
VisDroneは、さまざまなドローン搭載カメラで撮影された261,908フレームと10,209の静止画像を含む288のビデオクリップで構成されています。このデータセットは、場所(中国の14の異なる都市)、環境(都市部と農村部)、オブジェクト(歩行者、車両、自転車など)、密度(まばらなシーンと混雑したシーン)など、幅広い側面をカバーしています。データセットは、さまざまなシナリオ、気象条件、照明条件で、さまざまなドローンプラットフォームを使用して収集されました。これらのフレームには、歩行者、自動車、自転車、三輪車などのターゲットの260万を超えるバウンディングボックスが手動で注釈付けされています。シーンの可視性、オブジェクトクラス、オクルージョンなどの属性も、データ利用を向上させるために提供されています。
データセットの構造
VisDroneデータセットは、5つの主要なサブセットに編成されており、それぞれが特定のタスクに焦点を当てています。
- タスク1: 画像内の物体検出
- タスク2: 動画内の物体検出
- タスク3: 単一物体の追跡
- タスク 4: マルチオブジェクト追跡
- タスク5: 群衆のカウント
アプリケーション
VisDroneデータセットは、物体検出、物体追跡、群衆カウントなどのドローンベースのコンピュータービジョンタスクにおける深層学習モデルのトレーニングと評価に広く使用されています。データセットの多様なセンサーデータ、オブジェクトアノテーション、および属性は、ドローンベースのコンピュータービジョンの分野の研究者や実務家にとって貴重なリソースとなっています。
データセット YAML
YAML(Yet Another Markup Language)ファイルは、データセットの構成を定義するために使用されます。これには、データセットのパス、クラス、およびその他の関連情報が含まれています。Visdroneデータセットの場合、 VisDrone.yaml
fileは以下で管理されています: https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml.
ultralytics/cfg/datasets/VisDrone.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# VisDrone2019-DET dataset https://github.com/VisDrone/VisDrone-Dataset by Tianjin University
# Documentation: https://docs.ultralytics.com/datasets/detect/visdrone/
# Example usage: yolo train data=VisDrone.yaml
# parent
# ├── ultralytics
# └── datasets
# └── VisDrone ← downloads here (2.3 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: VisDrone # dataset root dir
train: images/train # train images (relative to 'path') 6471 images
val: images/val # val images (relative to 'path') 548 images
test: images/test # test-dev images (optional) 1610 images
# Classes
names:
0: pedestrian
1: people
2: bicycle
3: car
4: van
5: truck
6: tricycle
7: awning-tricycle
8: bus
9: motor
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import os
from pathlib import Path
import shutil
from ultralytics.utils.downloads import download
from ultralytics.utils import TQDM
def visdrone2yolo(dir, split, source_name=None):
"""Convert VisDrone annotations to YOLO format with images/{split} and labels/{split} structure."""
from PIL import Image
source_dir = dir / (source_name or f"VisDrone2019-DET-{split}")
images_dir = dir / "images" / split
labels_dir = dir / "labels" / split
labels_dir.mkdir(parents=True, exist_ok=True)
# Move images to new structure
if (source_images_dir := source_dir / "images").exists():
images_dir.mkdir(parents=True, exist_ok=True)
for img in source_images_dir.glob("*.jpg"):
img.rename(images_dir / img.name)
for f in TQDM((source_dir / "annotations").glob("*.txt"), desc=f"Converting {split}"):
img_size = Image.open(images_dir / f.with_suffix(".jpg").name).size
dw, dh = 1.0 / img_size[0], 1.0 / img_size[1]
lines = []
with open(f, encoding="utf-8") as file:
for row in [x.split(",") for x in file.read().strip().splitlines()]:
if row[4] != "0": # Skip ignored regions
x, y, w, h = map(int, row[:4])
cls = int(row[5]) - 1
# Convert to YOLO format
x_center, y_center = (x + w / 2) * dw, (y + h / 2) * dh
w_norm, h_norm = w * dw, h * dh
lines.append(f"{cls} {x_center:.6f} {y_center:.6f} {w_norm:.6f} {h_norm:.6f}\n")
(labels_dir / f.name).write_text("".join(lines), encoding="utf-8")
# Download (ignores test-challenge split)
dir = Path(yaml["path"]) # dataset root dir
urls = [
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-train.zip",
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-val.zip",
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-dev.zip",
# "https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-challenge.zip",
]
download(urls, dir=dir, threads=4)
# Convert
splits = {"VisDrone2019-DET-train": "train", "VisDrone2019-DET-val": "val", "VisDrone2019-DET-test-dev": "test"}
for folder, split in splits.items():
visdrone2yolo(dir, split, folder) # convert VisDrone annotations to YOLO labels
shutil.rmtree(dir / folder) # cleanup original directory
使用法
画像サイズ640でVisDroneデータセットのYOLO11nモデルを100エポックトレーニングするには、次のコードスニペットを使用できます。利用可能な引数の包括的なリストについては、モデルのトレーニングページを参照してください。
学習の例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="VisDrone.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=VisDrone.yaml model=yolo11n.pt epochs=100 imgsz=640
サンプルデータとアノテーション
VisDroneデータセットには、ドローン搭載カメラで撮影された多様な画像とビデオが含まれています。以下は、データセットからのデータの例と、それに対応するアノテーションです。
- タスク 1: 画像内のオブジェクト検出 - この画像は、画像内のオブジェクト検出の例を示しており、オブジェクトはバウンディングボックスで注釈が付けられています。このデータセットは、このタスクのモデル開発を促進するために、さまざまな場所、環境、密度で撮影された多種多様な画像を提供します。
この例は、VisDroneデータセット内のデータの多様性と複雑さを示しており、ドローンベースのコンピュータビジョンタスクにおける高品質なセンサーデータの重要性を強調しています。
引用と謝辞
VisDroneデータセットを研究または開発にご利用の際は、以下の論文を引用してください。
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}}
ドローンベースのコンピュータビジョン研究コミュニティにとって貴重なリソースであるVisDroneデータセットを作成および管理している、中国の天津大学、機械学習およびデータマイニング研究所のAISKYEYEチームに感謝いたします。VisDroneデータセットとその作成者の詳細については、VisDroneデータセットのGitHubリポジトリをご覧ください。
よくある質問
VisDrone Datasetとは何ですか?また、その主な特徴は何ですか?
VisDroneデータセットは、中国の天津大学のAISKYEYEチームによって作成された大規模なベンチマークです。ドローンベースの画像およびビデオ分析に関連するさまざまなコンピュータビジョンタスク向けに設計されています。主な機能は次のとおりです。
- 構成: 261,908フレームの288個のビデオクリップと10,209個の静止画像。
- アノテーション: 歩行者、自動車、自転車、三輪車などのオブジェクトに対して260万を超えるバウンディングボックスがあります。
- 多様性: 14の都市にまたがり、都市部と農村部、さまざまな天候および照明条件で収集されました。
- Tasks: 画像と動画内の物体検出、単一および複数物体の追跡、群衆カウントの5つの主要タスクに分割されます。
VisDrone Dataset を使用して、Ultralytics で YOLO11 モデルをトレーニングするにはどうすればよいですか?
画像サイズ640でVisDroneデータセットのYOLO11モデルを100エポックトレーニングするには、次の手順に従います。
学習の例
from ultralytics import YOLO
# Load a pretrained model
model = YOLO("yolo11n.pt")
# Train the model
results = model.train(data="VisDrone.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=VisDrone.yaml model=yolo11n.pt epochs=100 imgsz=640
追加の構成オプションについては、モデルのトレーニングページを参照してください。
VisDroneデータセットの主なサブセットと、その応用例は何ですか?
VisDroneデータセットは、5つの主要なサブセットに分割されており、それぞれが特定のコンピュータービジョンタスクに合わせて調整されています。
- タスク1: 画像内の物体検出。
- タスク2: 動画内の物体検出。
- タスク3: 単一物体の追跡。
- タスク4: 複数物体の追跡。
- Task 5: 群衆カウント。
これらのサブセットは、監視、交通監視、公共の安全などのドローンベースのアプリケーションで深層学習モデルをトレーニングおよび評価するために広く使用されています。
UltralyticsにおけるVisDroneデータセットの構成ファイルはどこにありますか?
VisDroneデータセットの構成ファイル、 VisDrone.yaml
は、Ultralyticsリポジトリの次のリンクにあります:
VisDrone.yaml.
VisDroneデータセットを研究で使用する場合、どのように引用すればよいですか?
VisDroneデータセットを研究または開発にご利用の際は、以下の論文を引用してください。
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}
}