Набор данных xView
Набор данных xView является одним из крупнейших общедоступных наборов данных аэрофотоснимков, содержащим изображения сложных сцен со всего мира, аннотированные с использованием ограничивающих рамок. Цель набора данных xView - ускорить прогресс в четырех областях компьютерного зрения:
- Уменьшите минимальное разрешение для обнаружения.
- Повысьте эффективность обучения.
- Включить обнаружение большего количества классов объектов.
- Улучшить обнаружение мелкозернистых классов.
xView опирается на успех таких конкурсов, как Common Objects in Context (COCO), и направлен на использование компьютерного зрения для анализа растущего объема доступных изображений из космоса, чтобы по-новому понимать визуальный мир и решать ряд важных задач.
Требуется ручная загрузка
Набор данных xView не загружается автоматически скриптами Ultralytics. Вы должны сначала вручную загрузить набор данных из официального источника:
- Источник: DIUx xView 2018 Challenge от Национального агентства геопространственной разведки США (NGA)
- URL: https://challenge.xviewdataset.org
Важно: После загрузки необходимых файлов (например, train_images.tif
, val_images.tif
, xView_train.geojson
), вам нужно извлечь их и поместить в правильную структуру каталогов, обычно ожидаемую в datasets/xView/
папка, before запуск приведенных ниже команд об обучении. Убедитесь, что набор данных правильно настроен согласно инструкциям задания.
Основные характеристики
- xView содержит более 1 миллиона экземпляров объектов, распределенных по 60 классам.
- Набор данных имеет разрешение 0,3 метра, что обеспечивает более высокое разрешение изображений, чем большинство общедоступных наборов данных спутниковых снимков.
- xView содержит разнообразную коллекцию мелких, редких, мелкозернистых и многотипных объектов с аннотацией в виде ограничивающих рамок.
- Поставляется с предварительно обученной базовой моделью, использующей API обнаружения объектов TensorFlow, и примером для PyTorch.
Структура набора данных
Набор данных xView состоит из спутниковых снимков, собранных со спутников WorldView-3 с расстояния 0,3 м до образца на земле. Он содержит более 1 миллиона объектов, относящихся к 60 классам, на площади более 1400 км². Этот набор данных особенно ценен для приложений дистанционного зондирования и мониторинга окружающей среды.
Приложения
Набор данных xView широко используется для обучения и оценки моделей глубокого обучения для обнаружения объектов на изображениях, полученных сверху. Разнообразный набор классов объектов и изображения с высоким разрешением делают этот набор данных ценным ресурсом для исследователей и практиков в области компьютерного зрения, особенно для анализа спутниковых изображений. Приложения включают в себя:
- Военная и оборонная разведка
- Городское планирование и развитие
- Экологический мониторинг
- Реагирование на стихийные бедствия и оценка ущерба
- Картографирование и управление инфраструктурой
YAML-файл набора данных
YAML-файл (Yet Another Markup Language) используется для определения конфигурации набора данных. Он содержит информацию о путях к набору данных, классах и другую релевантную информацию. В случае набора данных xView, xView.yaml
файл поддерживается по адресу https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from ultralytics.utils import TQDM
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path("xView/xView_train.geojson")):
"""Converts xView geoJSON labels to YOLO format, mapping classes to indices 0-59 and saving as text files."""
path = fname.parent
with open(fname, encoding="utf-8") as f:
print(f"Loading {fname}...")
data = json.load(f)
# Make dirs
labels = Path(path / "labels" / "train")
os.system(f"rm -rf {labels}")
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in TQDM(data["features"], desc=f"Converting {fname}"):
p = feature["properties"]
if p["bounds_imcoords"]:
id = p["image_id"]
file = path / "train_images" / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p["bounds_imcoords"].split(",")])
assert box.shape[0] == 4, f"incorrect box shape {box.shape[0]}"
cls = p["type_id"]
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f"incorrect class index {cls}"
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix(".txt"), "a", encoding="utf-8") as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f"WARNING: skipping one label for {file}: {e}")
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml["path"]) # dataset root dir
# urls = [
# "https://d307kc0mrhucc3.cloudfront.net/train_labels.zip", # train labels
# "https://d307kc0mrhucc3.cloudfront.net/train_images.zip", # 15G, 847 train images
# "https://d307kc0mrhucc3.cloudfront.net/val_images.zip", # 5G, 282 val images (no labels)
# ]
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / "xView_train.geojson")
# Move images
images = Path(dir / "images")
images.mkdir(parents=True, exist_ok=True)
Path(dir / "train_images").rename(dir / "images" / "train")
Path(dir / "val_images").rename(dir / "images" / "val")
# Split
autosplit(dir / "images" / "train")
Использование
Чтобы обучить модель на наборе данных xView в течение 100 эпох с размером изображения 640, вы можете использовать следующие фрагменты кода. Для получения полного списка доступных аргументов обратитесь к странице обучения модели.
Пример обучения
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Примеры данных и аннотации
Набор данных xView содержит спутниковые снимки высокого разрешения с разнообразным набором объектов, аннотированных с использованием ограничивающих рамок. Вот несколько примеров данных из набора данных вместе с соответствующими аннотациями:
- Аэрокосмическая съемка: Это изображение демонстрирует пример обнаружения объектов на аэрокосмической съемке, где объекты аннотированы ограничивающими рамками. Набор данных предоставляет спутниковые снимки высокого разрешения для облегчения разработки моделей для этой задачи.
Пример демонстрирует разнообразие и сложность данных в наборе данных xView и подчеркивает важность высококачественных спутниковых снимков для задач обнаружения объектов.
Сопутствующие наборы данных
Если вы работаете со спутниковыми снимками, вам также может быть интересно изучить следующие связанные наборы данных:
- DOTA-v2: Набор данных для ориентированного обнаружения объектов на аэрофотоснимках
- VisDrone: набор данных для обнаружения объектов и отслеживания на изображениях, снятых с дронов
- Argoverse: Набор данных для автономного вождения с аннотациями 3D-трекинга
Цитирование и благодарности
Если вы используете набор данных xView в своей исследовательской или опытно-конструкторской работе, пожалуйста, сошлитесь на следующую статью:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Мы хотели бы поблагодарить Defense Innovation Unit (DIU) и создателей набора данных xView за их ценный вклад в исследовательское сообщество компьютерного зрения. Для получения дополнительной информации о наборе данных xView и его создателях посетите веб-сайт набора данных xView.
Часто задаваемые вопросы
Что такое набор данных xView и как он помогает исследованиям в области компьютерного зрения?
Набор данных xView является одной из крупнейших общедоступных коллекций аэрокосмических снимков высокого разрешения, содержащей более 1 миллиона экземпляров объектов, распределенных по 60 классам. Он предназначен для улучшения различных аспектов исследований в области компьютерного зрения, таких как уменьшение минимального разрешения для обнаружения, повышение эффективности обучения, обнаружение большего количества классов объектов и продвижение детализированного обнаружения объектов.
Как я могу использовать Ultralytics YOLO для обучения модели на наборе данных xView?
Чтобы обучить модель на наборе данных xView с помощью Ultralytics YOLO, выполните следующие действия:
Пример обучения
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Подробные аргументы и настройки см. на странице обучения модели.
Каковы основные особенности набора данных xView?
Набор данных xView выделяется своим полным набором функций:
- Более 1 миллиона экземпляров объектов, распределенных по 60 различным классам.
- Изображения высокого разрешения с разрешением 0,3 метра.
- Разнообразные типы объектов, включая мелкие, редкие и мелкозернистые объекты, все аннотированные ограничивающими рамками.
- Доступность предварительно обученной базовой модели и примеров в TensorFlow и PyTorch.
Какова структура набора данных xView и как он аннотирован?
Набор данных xView содержит спутниковые снимки высокого разрешения, полученные спутниками WorldView-3 с расстояния 0,3 м между наземными образцами, охватывающие более 1 миллиона объектов в 60 различных классах на площади около 1400 км² аннотированных изображений. Каждый объект помечен ограничивающими рамками, что делает этот набор данных очень подходящим для обучения и оценки моделей глубокого обучения для обнаружения объектов в верхних ракурсах. Подробную разбивку см. в разделе «Структура набора данных».
Как мне процитировать набор данных xView в своем исследовании?
Если вы используете набор данных xView в своих исследованиях, пожалуйста, сошлитесь на следующую статью:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Для получения дополнительной информации о наборе данных xView посетите официальный веб-сайт набора данных xView.