Dataset xView
Il dataset xView è uno dei più grandi dataset di immagini aeree disponibili pubblicamente, contenente immagini di scene complesse in tutto il mondo annotate utilizzando bounding box. L'obiettivo del dataset xView è accelerare il progresso in quattro frontiere della computer vision:
- Riduci la risoluzione minima per il rilevamento.
- Migliora l'efficienza dell'apprendimento.
- Abilita l'individuazione di più classi di oggetti.
- Migliora il rilevamento di classi a grana fine.
xView si basa sul successo di sfide come Common Objects in Context (COCO) e mira a sfruttare la visione artificiale per analizzare la crescente quantità di immagini disponibili dallo spazio al fine di comprendere il mondo visivo in nuovi modi e affrontare una serie di importanti applicazioni.
Download manuale richiesto
Il dataset xView non viene scaricato automaticamente dagli script Ultralytics. È necessario scaricare manualmente il dataset dalla fonte ufficiale:
- Fonte: DIUx xView 2018 Challenge della U.S. National Geospatial-Intelligence Agency (NGA)
- URL: https://challenge.xviewdataset.org
Importante: Dopo aver scaricato i file necessari (ad esempio, train_images.tif
, val_images.tif
, xView_train.geojson
), è necessario estrarli e posizionarli nella struttura di directory corretta, tipicamente prevista in datasets/xView/
cartella, prima esecuzione dei comandi di addestramento forniti di seguito. Assicurati che il set di dati sia configurato correttamente secondo le istruzioni della challenge.
Caratteristiche principali
- xView contiene oltre 1 milione di istanze di oggetti in 60 classi.
- Il dataset ha una risoluzione di 0,3 metri, fornendo immagini a risoluzione più alta rispetto alla maggior parte dei dataset di immagini satellitari pubblici.
- xView presenta una collezione diversificata di oggetti piccoli, rari, granulari e multi-tipo con annotazione di bounding box.
- Viene fornito con un modello di base pre-addestrato che utilizza l'API di rilevamento oggetti TensorFlow e un esempio per PyTorch.
Struttura del set di dati
Il dataset xView è composto da immagini satellitari raccolte dai satelliti WorldView-3 a una distanza di campionamento al suolo di 0,3 m. Contiene oltre 1 milione di oggetti in 60 classi su oltre 1.400 km² di immagini. Il dataset è particolarmente utile per le applicazioni di telerilevamento e il monitoraggio ambientale.
Applicazioni
Il dataset xView è ampiamente utilizzato per l'addestramento e la valutazione di modelli di deep learning per l'object detection in immagini aeree. L'insieme diversificato di classi di oggetti e le immagini ad alta risoluzione del dataset lo rendono una risorsa preziosa per ricercatori e professionisti nel campo della computer vision, in particolare per l'analisi di immagini satellitari. Le applicazioni includono:
- Ricognizione militare e della difesa
- Pianificazione e sviluppo urbano
- Monitoraggio ambientale
- Risposta e valutazione in caso di calamità
- Mappatura e gestione dell'infrastruttura
YAML del set di dati
Un file YAML (Yet Another Markup Language) viene utilizzato per definire la configurazione del dataset. Contiene informazioni sui percorsi, le classi e altre informazioni rilevanti del dataset. Nel caso del dataset xView, il xView.yaml
file è mantenuto in https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from ultralytics.utils import TQDM
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path("xView/xView_train.geojson")):
"""Converts xView geoJSON labels to YOLO format, mapping classes to indices 0-59 and saving as text files."""
path = fname.parent
with open(fname, encoding="utf-8") as f:
print(f"Loading {fname}...")
data = json.load(f)
# Make dirs
labels = Path(path / "labels" / "train")
os.system(f"rm -rf {labels}")
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in TQDM(data["features"], desc=f"Converting {fname}"):
p = feature["properties"]
if p["bounds_imcoords"]:
id = p["image_id"]
file = path / "train_images" / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p["bounds_imcoords"].split(",")])
assert box.shape[0] == 4, f"incorrect box shape {box.shape[0]}"
cls = p["type_id"]
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f"incorrect class index {cls}"
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix(".txt"), "a", encoding="utf-8") as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f"WARNING: skipping one label for {file}: {e}")
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml["path"]) # dataset root dir
# urls = [
# "https://d307kc0mrhucc3.cloudfront.net/train_labels.zip", # train labels
# "https://d307kc0mrhucc3.cloudfront.net/train_images.zip", # 15G, 847 train images
# "https://d307kc0mrhucc3.cloudfront.net/val_images.zip", # 5G, 282 val images (no labels)
# ]
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / "xView_train.geojson")
# Move images
images = Path(dir / "images")
images.mkdir(parents=True, exist_ok=True)
Path(dir / "train_images").rename(dir / "images" / "train")
Path(dir / "val_images").rename(dir / "images" / "val")
# Split
autosplit(dir / "images" / "train")
Utilizzo
Per addestrare un modello sul dataset xView per 100 epoche con una dimensione dell'immagine di 640, è possibile utilizzare i seguenti frammenti di codice. Per un elenco completo degli argomenti disponibili, consultare la pagina di Training del modello.
Esempio di addestramento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Dati di esempio e annotazioni
Il dataset xView contiene immagini satellitari ad alta risoluzione con un insieme diversificato di oggetti annotati utilizzando bounding box. Ecco alcuni esempi di dati dal dataset, insieme alle relative annotazioni:
- Immagini Aeree: Questa immagine dimostra un esempio di object detection in immagini aeree, dove gli oggetti sono annotati con bounding box. Il dataset fornisce immagini satellitari ad alta risoluzione per facilitare lo sviluppo di modelli per questa attività.
L'esempio mostra la varietà e la complessità dei dati nel dataset xView ed evidenzia l'importanza di immagini satellitari di alta qualità per le attività di rilevamento oggetti.
Dataset correlati
Se lavori con immagini satellitari, potresti anche essere interessato a esplorare questi dataset correlati:
- DOTA-v2: Un dataset per l'object detection orientato in immagini aeree
- VisDrone: Un dataset per l'object detection e il tracking in immagini acquisite da drone
- Argoverse: Un dataset per la guida autonoma con annotazioni di tracciamento 3D
Citazioni e ringraziamenti
Se utilizzi il dataset xView nel tuo lavoro di ricerca o sviluppo, cita il seguente articolo:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Desideriamo ringraziare la Defense Innovation Unit (DIU) e i creatori del dataset xView per il loro prezioso contributo alla comunità di ricerca nel campo della computer vision. Per maggiori informazioni sul dataset xView e sui suoi creatori, visitare il sito web del dataset xView.
FAQ
Cos'è il dataset xView e come avvantaggia la ricerca sulla computer vision?
Il dataset xView è una delle più grandi raccolte disponibili pubblicamente di immagini aeree ad alta risoluzione, contenente oltre 1 milione di istanze di oggetti in 60 classi. È progettato per migliorare vari aspetti della ricerca sulla computer vision, come la riduzione della risoluzione minima per il rilevamento, il miglioramento dell'efficienza dell'apprendimento, la scoperta di più classi di oggetti e il progresso del rilevamento di oggetti a grana fine.
Come posso usare Ultralytics YOLO per addestrare un modello sul dataset xView?
Per addestrare un modello sul set di dati xView utilizzando Ultralytics YOLO, segui questi passaggi:
Esempio di addestramento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Per argomenti e impostazioni dettagliate, consultare la pagina Training del modello.
Quali sono le caratteristiche principali del dataset xView?
Il dataset xView si distingue per il suo insieme completo di funzionalità:
- Oltre 1 milione di istanze di oggetti in 60 classi distinte.
- Immagini ad alta risoluzione a 0,3 metri.
- Diversi tipi di oggetti, inclusi oggetti piccoli, rari e a grana fine, tutti annotati con bounding box.
- Disponibilità di un modello di base pre-addestrato ed esempi in TensorFlow e PyTorch.
Qual è la struttura del dataset di xView e come viene annotato?
Il dataset xView contiene immagini satellitari ad alta risoluzione acquisite dai satelliti WorldView-3 a una distanza di campionamento al suolo di 0,3 m, che coprono oltre 1 milione di oggetti in 60 classi distinte all'interno di circa 1.400 km² di immagini annotate. Ogni oggetto è etichettato con bounding box, rendendo il dataset altamente adatto per l'addestramento e la valutazione di modelli di deep learning per il rilevamento di oggetti in viste dall'alto. Per una ripartizione dettagliata, fare riferimento alla sezione Struttura del dataset.
Come posso citare il dataset xView nella mia ricerca?
Se utilizzi il dataset xView nella tua ricerca, cita il seguente articolo:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Per maggiori informazioni sul dataset xView, visita il sito web ufficiale del dataset xView.