xView Dataset
Der xView-Datensatz ist einer der größten öffentlich zugänglichen Datensätze von Overhead-Bildern und enthält Bilder von komplexen Szenen auf der ganzen Welt, die mit Bounding Boxes versehen sind. Das Ziel des xView-Datensatzes ist es, den Fortschritt in vier Bereichen der Computer Vision zu beschleunigen:
- Reduziere die Mindestauflösung für die Erkennung.
- Verbessere die Lerneffizienz.
- Ermöglicht die Erkennung von mehr Objektklassen.
- Verbessere die Erkennung von feinkörnigen Klassen.
xView baut auf dem Erfolg von Challenges wie Common Objects in Context (COCO) auf und zielt darauf ab, Computer Vision zu nutzen, um die wachsende Menge an verfügbaren Bildern aus dem Weltraum zu analysieren, um die visuelle Welt auf neue Art und Weise zu verstehen und eine Reihe von wichtigen Anwendungen zu ermöglichen.
Hauptmerkmale
- xView enthält über 1 Million Objektinstanzen in 60 Klassen.
- Der Datensatz hat eine Auflösung von 0,3 Metern und bietet damit eine höhere Auflösung als die meisten öffentlichen Satellitenbilddaten.
- xView bietet eine vielfältige Sammlung von kleinen, seltenen, feinkörnigen und mehrfachen Objekten mit Bounding Box Annotation.
- Im Lieferumfang enthalten sind ein vortrainiertes Basismodell mit der TensorFlow Object Detection API und ein Beispiel für PyTorch.
Struktur des Datensatzes
Der xView-Datensatz besteht aus Satellitenbildern, die von WorldView-3-Satelliten in einem Abstand von 0,3 m zum Boden aufgenommen wurden. Er enthält über 1 Million Objekte in 60 Klassen auf über 1.400 km² Bildfläche.
Anwendungen
Der xView-Datensatz wird häufig zum Trainieren und Evaluieren von Deep-Learning-Modellen für die Objekterkennung in Overhead-Bildern verwendet. Die vielfältigen Objektklassen und die hochauflösenden Bilder machen den Datensatz zu einer wertvollen Ressource für Forscher und Praktiker auf dem Gebiet des Computer Vision, insbesondere für die Analyse von Satellitenbildern.
Datensatz YAML
Eine YAML-Datei (Yet Another Markup Language) wird verwendet, um die Konfiguration des Datensatzes zu definieren. Sie enthält Informationen über die Pfade, Klassen und andere relevante Informationen des Datasets. Im Fall des xView-Datensatzes ist die xView.yaml
Datei wird verwaltet unter https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from tqdm import tqdm
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path('xView/xView_train.geojson')):
# Convert xView geoJSON labels to YOLO format
path = fname.parent
with open(fname) as f:
print(f'Loading {fname}...')
data = json.load(f)
# Make dirs
labels = Path(path / 'labels' / 'train')
os.system(f'rm -rf {labels}')
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in tqdm(data['features'], desc=f'Converting {fname}'):
p = feature['properties']
if p['bounds_imcoords']:
id = p['image_id']
file = path / 'train_images' / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
cls = p['type_id']
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f'incorrect class index {cls}'
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix('.txt'), 'a') as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f'WARNING: skipping one label for {file}: {e}')
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml['path']) # dataset root dir
# urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip', # train labels
# 'https://d307kc0mrhucc3.cloudfront.net/train_images.zip', # 15G, 847 train images
# 'https://d307kc0mrhucc3.cloudfront.net/val_images.zip'] # 5G, 282 val images (no labels)
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / 'xView_train.geojson')
# Move images
images = Path(dir / 'images')
images.mkdir(parents=True, exist_ok=True)
Path(dir / 'train_images').rename(dir / 'images' / 'train')
Path(dir / 'val_images').rename(dir / 'images' / 'val')
# Split
autosplit(dir / 'images' / 'train')
Verwendung
Um ein Modell auf dem xView-Datensatz für 100 Epochen mit einer Bildgröße von 640 zu trainieren, kannst du die folgenden Codeschnipsel verwenden. Eine umfassende Liste der verfügbaren Argumente findest du auf der Seite Modelltraining.
Beispiel für einen Zug
Beispieldaten und Anmerkungen
Der xView-Datensatz enthält hochauflösende Satellitenbilder mit einer Vielzahl von Objekten, die mit Bounding Boxes beschriftet sind. Hier sind einige Beispiele von Daten aus dem Datensatz, zusammen mit den entsprechenden Anmerkungen:
- Über-Kopf-Bilder: Dieses Bild zeigt ein Beispiel für die Objekterkennung in Überkopfaufnahmen, bei dem die Objekte mit Begrenzungsrahmen versehen sind. Der Datensatz enthält hochauflösende Satellitenbilder, die die Entwicklung von Modellen für diese Aufgabe erleichtern.
Das Beispiel zeigt die Vielfalt und Komplexität der Daten im xView-Datensatz und macht deutlich, wie wichtig hochwertige Satellitenbilder für die Objekterkennung sind.
Zitate und Danksagungen
Wenn du den xView-Datensatz in deiner Forschungs- oder Entwicklungsarbeit verwendest, zitiere bitte das folgende Dokument:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Wir möchten uns bei der Defense Innovation Unit (DIU) und den Erstellern des xView-Datensatzes für ihren wertvollen Beitrag zur Computer Vision-Forschungsgemeinschaft bedanken. Weitere Informationen über den xView-Datensatz und seine Ersteller findest du auf der Website des xView-Datensatzes.
FAQ
Was ist der xView-Datensatz und welchen Nutzen hat er für die Computer Vision Forschung?
Der xView-Datensatz ist eine der größten öffentlich zugänglichen Sammlungen von hochauflösenden Overhead-Bildern und enthält über 1 Million Objektinstanzen in 60 Klassen. Er wurde entwickelt, um verschiedene Aspekte der Computer-Vision-Forschung zu verbessern, wie z. B. die Reduzierung der Mindestauflösung für die Erkennung, die Verbesserung der Lerneffizienz, die Entdeckung von mehr Objektklassen und die Verbesserung der feinkörnigen Objekterkennung.
Wie kann ich Ultralytics YOLO verwenden, um ein Modell für den xView-Datensatz zu trainieren?
Um ein Modell auf dem xView-Datensatz mit Ultralytics YOLO zu trainieren, befolge diese Schritte:
Beispiel für einen Zug
Detaillierte Argumente und Einstellungen findest du auf der Seite des Modells Training.
Was sind die wichtigsten Merkmale des xView-Datensatzes?
The xView dataset stands out due to its comprehensive set of features:
- Over 1 million object instances across 60 distinct classes.
- High-resolution imagery at 0.3 meters.
- Diverse object types including small, rare, and fine-grained objects, all annotated with bounding boxes.
- Availability of a pre-trained baseline model and examples in TensorFlow and PyTorch.
Wie ist die Datensatzstruktur von xView und wie ist sie beschriftet?
Der xView-Datensatz umfasst hochauflösende Satellitenbilder, die von den WorldView-3-Satelliten in einem Abstand von 0,3 m zum Boden aufgenommen wurden. Er umfasst über 1 Million Objekte in 60 Klassen auf einer Fläche von etwa 1.400 km². Jedes Objekt im Datensatz ist mit Bounding Boxes versehen und eignet sich daher ideal zum Trainieren und Evaluieren von Deep Learning-Modellen für die Objekterkennung in Überkopfbildern. Einen detaillierten Überblick über die Struktur des Datensatzes findest du hier.
Wie kann ich den xView-Datensatz in meiner Forschung zitieren?
Wenn du den xView-Datensatz in deiner Forschung verwendest, zitiere bitte das folgende Dokument:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Weitere Informationen zum xView-Datensatz findest du auf der offiziellen Website des xView-Datensatzes.