xView Datensatz
Der xView-Datensatz ist einer der größten öffentlich verfügbaren Datensätze mit Overhead-Bildern, der Bilder von komplexen Szenen aus der ganzen Welt enthält, die mit Hilfe von Bounding Boxes annotiert wurden. Das Ziel des xView-Datensatzes ist es, die Fortschritte in vier Computer-Vision-Bereichen zu beschleunigen:
- Reduzieren Sie die minimale Auflösung für die Erkennung.
- Verbesserung der Lerneffizienz.
- Ermöglicht die Erkennung von mehr Objektklassen.
- Verbesserung der Erkennung von feinkörnigen Klassen.
xView baut auf dem Erfolg von Wettbewerben wie Common Objects in Context (COCO) auf und zielt darauf ab, Computer Vision zu nutzen, um die wachsende Menge an verfügbaren Bildern aus dem Weltraum zu analysieren, um die visuelle Welt auf neue Weise zu verstehen und eine Reihe wichtiger Anwendungen anzugehen.
Manueller Download erforderlich
Der xView-Datensatz wird nicht automatisch von Ultralytics-Skripten heruntergeladen. Sie müssen den Datensatz zuerst manuell von der offiziellen Quelle herunterladen:
- Quelle: DIUx xView 2018 Challenge der U.S. National Geospatial-Intelligence Agency (NGA)
- URL: https://challenge.xviewdataset.org
Wichtig: Nach dem Herunterladen der notwendigen Dateien (z.B. train_images.tif
, val_images.tif
, xView_train.geojson
), müssen Sie diese extrahieren und in die korrekte Verzeichnisstruktur einfügen, die typischerweise unter einem datasets/xView/
Ordner, vorher Ausführen der unten angegebenen Trainingsbefehle. Stellen Sie sicher, dass der Datensatz gemäß den Anweisungen der Challenge korrekt eingerichtet ist.
Hauptmerkmale
- xView enthält über 1 Million Objektinstanzen in 60 Klassen.
- Der Datensatz hat eine Auflösung von 0,3 Metern und bietet damit eine höhere Bildauflösung als die meisten öffentlichen Satellitenbilddatensätze.
- xView bietet eine vielfältige Sammlung von kleinen, seltenen, feinkörnigen und Multi-Typ-Objekten mit Bounding-Box-Annotation.
- Enthält ein vortrainiertes Basismodell unter Verwendung der TensorFlow Objekterkennungs-API und ein Beispiel für PyTorch.
Dataset-Struktur
Der xView-Datensatz besteht aus Satellitenbildern, die von WorldView-3-Satelliten mit einer Bodenauflösung von 0,3 m aufgenommen wurden. Er enthält über 1 Million Objekte in 60 Klassen auf über 1.400 km² Bildmaterial. Der Datensatz ist besonders wertvoll für Fernerkundungs-Anwendungen und Umweltüberwachung.
Anwendungen
Der xView-Datensatz wird häufig für das Training und die Evaluierung von Deep-Learning-Modellen zur Objektdetektion in Luftaufnahmen verwendet. Die vielfältigen Objektklassen und die hochauflösenden Bilder des Datensatzes machen ihn zu einer wertvollen Ressource für Forscher und Praktiker im Bereich Computer Vision, insbesondere für die Analyse von Satellitenbildern. Zu den Anwendungen gehören:
- Militärische und verteidigungstechnische Aufklärung
- Stadtplanung und -entwicklung
- Umweltüberwachung
- Katastrophenhilfe und -bewertung
- Infrastrukturkartierung und -verwaltung
Datensatz-YAML
Eine YAML-Datei (Yet Another Markup Language) wird verwendet, um die Konfiguration des Datensatzes zu definieren. Sie enthält Informationen über die Pfade, Klassen und andere relevante Informationen des Datensatzes. Im Fall des xView-Datensatzes ist die xView.yaml
Datei wird verwaltet unter https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from ultralytics.utils import TQDM
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path("xView/xView_train.geojson")):
"""Converts xView geoJSON labels to YOLO format, mapping classes to indices 0-59 and saving as text files."""
path = fname.parent
with open(fname, encoding="utf-8") as f:
print(f"Loading {fname}...")
data = json.load(f)
# Make dirs
labels = Path(path / "labels" / "train")
os.system(f"rm -rf {labels}")
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in TQDM(data["features"], desc=f"Converting {fname}"):
p = feature["properties"]
if p["bounds_imcoords"]:
id = p["image_id"]
file = path / "train_images" / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p["bounds_imcoords"].split(",")])
assert box.shape[0] == 4, f"incorrect box shape {box.shape[0]}"
cls = p["type_id"]
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f"incorrect class index {cls}"
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix(".txt"), "a", encoding="utf-8") as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f"WARNING: skipping one label for {file}: {e}")
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml["path"]) # dataset root dir
# urls = [
# "https://d307kc0mrhucc3.cloudfront.net/train_labels.zip", # train labels
# "https://d307kc0mrhucc3.cloudfront.net/train_images.zip", # 15G, 847 train images
# "https://d307kc0mrhucc3.cloudfront.net/val_images.zip", # 5G, 282 val images (no labels)
# ]
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / "xView_train.geojson")
# Move images
images = Path(dir / "images")
images.mkdir(parents=True, exist_ok=True)
Path(dir / "train_images").rename(dir / "images" / "train")
Path(dir / "val_images").rename(dir / "images" / "val")
# Split
autosplit(dir / "images" / "train")
Nutzung
Um ein Modell auf dem xView-Datensatz für 100 Epochen mit einer Bildgröße von 640 zu trainieren, können Sie die folgenden Code-Snippets verwenden. Eine umfassende Liste der verfügbaren Argumente finden Sie auf der Seite Training des Modells.
Trainingsbeispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Beispieldaten und Anmerkungen
Der xView-Datensatz enthält hochauflösende Satellitenbilder mit einer vielfältigen Sammlung von Objekten, die mit Begrenzungsrahmen annotiert sind. Hier sind einige Beispiele für Daten aus dem Datensatz zusammen mit den entsprechenden Anmerkungen:
- Luftaufnahmen: Dieses Bild zeigt ein Beispiel für Objekterkennung in Luftaufnahmen, bei denen Objekte mit Begrenzungsrahmen annotiert sind. Der Datensatz stellt hochauflösende Satellitenbilder zur Verfügung, um die Entwicklung von Modellen für diese Aufgabe zu erleichtern.
Das Beispiel zeigt die Vielfalt und Komplexität der Daten im xView-Datensatz und unterstreicht die Bedeutung hochwertiger Satellitenbilder für Objekterkennungsaufgaben.
Verwandte Datensätze
Wenn Sie mit Satellitenbildern arbeiten, könnten Sie auch daran interessiert sein, diese verwandten Datensätze zu erkunden:
- DOTA-v2: Ein Datensatz für die orientierte Objekterkennung in Luftaufnahmen
- VisDrone: Ein Datensatz für Objekterkennung und -verfolgung in Drohnenbildern
- Argoverse: Ein Datensatz für autonomes Fahren mit 3D-Tracking-Annotationen
Zitate und Danksagungen
Wenn Sie den xView-Datensatz in Ihrer Forschungs- oder Entwicklungsarbeit verwenden, zitieren Sie bitte das folgende Paper:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Wir möchten die Defense Innovation Unit (DIU) und die Urheber des xView-Datensatzes für ihren wertvollen Beitrag zur Computer-Vision-Forschungsgemeinschaft anerkennen. Weitere Informationen über den xView-Datensatz und seine Urheber finden Sie auf der xView-Datensatz-Website.
FAQ
Was ist der xView-Datensatz und welchen Nutzen hat er für die Computer-Vision-Forschung?
Der xView-Datensatz ist eine der größten öffentlich verfügbaren Sammlungen hochauflösender Overhead-Bilder, die über 1 Million Objektinstanzen in 60 Klassen enthält. Er wurde entwickelt, um verschiedene Aspekte der Computer-Vision-Forschung zu verbessern, wie z. B. die Reduzierung der minimalen Auflösung für die Erkennung, die Verbesserung der Lerneffizienz, die Entdeckung weiterer Objektklassen und die Weiterentwicklung der feinkörnigen Objekterkennung.
Wie kann ich Ultralytics YOLO verwenden, um ein Modell auf dem xView-Datensatz zu trainieren?
Um ein Modell auf dem xView-Datensatz mit Ultralytics YOLO zu trainieren, führen Sie die folgenden Schritte aus:
Trainingsbeispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Detaillierte Argumente und Einstellungen finden Sie auf der Seite Modelltraining.
Was sind die Hauptmerkmale des xView-Datensatzes?
Der xView-Datensatz zeichnet sich durch seine umfassenden Funktionen aus:
- Über 1 Million Objektinstanzen in 60 verschiedenen Klassen.
- Hochauflösende Bilder mit 0,3 Metern.
- Vielfältige Objekttypen, darunter kleine, seltene und feinkörnige Objekte, die alle mit Begrenzungsrahmen versehen sind.
- Verfügbarkeit eines vortrainierten Basismodells und Beispielen in TensorFlow und PyTorch.
Wie ist die Datensatzstruktur von xView und wie ist sie annotiert?
Der xView-Datensatz enthält hochauflösende Satellitenbilder, die von WorldView-3-Satelliten mit einer Bodenauflösung von 0,3 m aufgenommen wurden und über 1 Million Objekte in 60 verschiedenen Klassen auf einer Fläche von ca. 1.400 km² annotierter Bilder abdecken. Jedes Objekt ist mit Begrenzungsrahmen gekennzeichnet, was den Datensatz sehr gut für das Training und die Evaluierung von Deep-Learning-Modellen für die Objekterkennung in der Aufsicht eignet. Eine detaillierte Aufschlüsselung finden Sie im Abschnitt Dataset-Struktur.
Wie zitiere ich den xView-Datensatz in meiner Forschung?
Wenn Sie den xView-Datensatz in Ihrer Forschung verwenden, zitieren Sie bitte das folgende Paper:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Weitere Informationen über den xView-Datensatz finden Sie auf der offiziellen xView-Datensatz-Website.