Set di dati xView
Il dataset xView è uno dei più grandi dataset di immagini dall'alto disponibili pubblicamente, contenente immagini di scene complesse di tutto il mondo annotate con caselle di delimitazione. L'obiettivo del dataset xView è quello di accelerare i progressi in quattro frontiere della computer vision:
- Riduci la risoluzione minima per il rilevamento.
- Migliorare l'efficienza dell'apprendimento.
- Abilita la scoperta di più classi di oggetti.
- Migliorare il rilevamento delle classi a grana fine.
xView si basa sul successo di sfide come Common Objects in Context (COCO) e mira a sfruttare la visione computerizzata per analizzare la crescente quantità di immagini disponibili dallo spazio al fine di comprendere il mondo visivo in modi nuovi e affrontare una serie di importanti applicazioni.
Caratteristiche principali
- xView contiene oltre 1 milione di istanze di oggetti in 60 classi.
- Il set di dati ha una risoluzione di 0,3 metri, fornendo immagini con una risoluzione più elevata rispetto alla maggior parte dei set di immagini satellitari pubblici.
- xView offre una collezione diversificata di oggetti piccoli, rari, a grana fine e multi-tipo con annotazione del rettangolo di selezione.
- Viene fornito con un modello di base pre-addestrato utilizzando l'API di rilevamento degli oggetti di TensorFlow e un esempio per PyTorch.
Struttura del set di dati
Il set di dati xView è composto da immagini satellitari raccolte dai satelliti WorldView-3 a una distanza di 0,3 m dal suolo. Contiene oltre 1 milione di oggetti di 60 classi in oltre 1.400 km² di immagini.
Applicazioni
Il dataset xView è ampiamente utilizzato per l'addestramento e la valutazione di modelli di deep learning per il rilevamento di oggetti in immagini dall'alto. La varietà di classi di oggetti e le immagini ad alta risoluzione rendono il dataset una risorsa preziosa per i ricercatori e i professionisti nel campo della computer vision, in particolare per l'analisi delle immagini satellitari.
Set di dati YAML
Un file YAML (Yet Another Markup Language) viene utilizzato per definire la configurazione del dataset. Contiene informazioni sui percorsi del dataset, sulle classi e altre informazioni rilevanti. Nel caso del dataset xView, il file xView.yaml
Il file viene mantenuto all'indirizzo https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from tqdm import tqdm
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path('xView/xView_train.geojson')):
# Convert xView geoJSON labels to YOLO format
path = fname.parent
with open(fname) as f:
print(f'Loading {fname}...')
data = json.load(f)
# Make dirs
labels = Path(path / 'labels' / 'train')
os.system(f'rm -rf {labels}')
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in tqdm(data['features'], desc=f'Converting {fname}'):
p = feature['properties']
if p['bounds_imcoords']:
id = p['image_id']
file = path / 'train_images' / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
cls = p['type_id']
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f'incorrect class index {cls}'
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix('.txt'), 'a') as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f'WARNING: skipping one label for {file}: {e}')
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml['path']) # dataset root dir
# urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip', # train labels
# 'https://d307kc0mrhucc3.cloudfront.net/train_images.zip', # 15G, 847 train images
# 'https://d307kc0mrhucc3.cloudfront.net/val_images.zip'] # 5G, 282 val images (no labels)
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / 'xView_train.geojson')
# Move images
images = Path(dir / 'images')
images.mkdir(parents=True, exist_ok=True)
Path(dir / 'train_images').rename(dir / 'images' / 'train')
Path(dir / 'val_images').rename(dir / 'images' / 'val')
# Split
autosplit(dir / 'images' / 'train')
Utilizzo
Per addestrare un modello sul dataset xView per 100 epoche con un'immagine di dimensioni 640, puoi utilizzare i seguenti frammenti di codice. Per un elenco completo degli argomenti disponibili, consulta la pagina di addestramento del modello.
Esempio di treno
Dati di esempio e annotazioni
Il set di dati xView contiene immagini satellitari ad alta risoluzione con un'ampia gamma di oggetti annotati mediante caselle di delimitazione. Ecco alcuni esempi di dati del set di dati, insieme alle annotazioni corrispondenti:
- Immagini dall'alto: Questa immagine mostra un esempio di rilevamento di oggetti in immagini dall'alto, dove gli oggetti sono annotati con caselle di delimitazione. Il set di dati fornisce immagini satellitari ad alta risoluzione per facilitare lo sviluppo di modelli per questo compito.
L'esempio mostra la varietà e la complessità dei dati contenuti nel set di dati xView e sottolinea l'importanza delle immagini satellitari di alta qualità per le attività di rilevamento degli oggetti.
Citazioni e ringraziamenti
Se utilizzi il dataset xView nel tuo lavoro di ricerca o sviluppo, cita il seguente documento:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Desideriamo ringraziare la Defense Innovation Unit (DIU) e i creatori del dataset xView per il loro prezioso contributo alla comunità di ricerca sulla computer vision. Per maggiori informazioni sul dataset xView e sui suoi creatori, visita il sito web del dataset xView.
DOMANDE FREQUENTI
Che cos'è il dataset xView e in che modo è utile alla ricerca sulla visione artificiale?
Il dataset xView è una delle più grandi raccolte pubbliche di immagini dall'alto ad alta risoluzione, contenente oltre 1 milione di istanze di oggetti in 60 classi. È stato progettato per migliorare vari aspetti della ricerca sulla computer vision, come la riduzione della risoluzione minima per il rilevamento, il miglioramento dell'efficienza di apprendimento, la scoperta di un maggior numero di classi di oggetti e l'avanzamento del rilevamento di oggetti a grana fine.
Come posso utilizzare Ultralytics YOLO per addestrare un modello sul dataset xView?
Per addestrare un modello sul dataset xView utilizzando Ultralytics YOLO , segui i seguenti passaggi:
Esempio di treno
Per argomenti e impostazioni dettagliate, consulta la pagina di formazione del modello.
Quali sono le caratteristiche principali del dataset xView?
The xView dataset stands out due to its comprehensive set of features:
- Over 1 million object instances across 60 distinct classes.
- High-resolution imagery at 0.3 meters.
- Diverse object types including small, rare, and fine-grained objects, all annotated with bounding boxes.
- Availability of a pre-trained baseline model and examples in TensorFlow and PyTorch.
Qual è la struttura del dataset di xView e come viene annotato?
Il set di dati xView comprende immagini satellitari ad alta risoluzione raccolte dai satelliti WorldView-3 a una distanza di 0,3 m dal suolo. Comprende oltre 1 milione di oggetti di 60 classi in circa 1.400 km² di immagini. Ogni oggetto all'interno del set di dati è annotato con caselle di delimitazione, il che lo rende ideale per l'addestramento e la valutazione di modelli di deep learning per il rilevamento di oggetti nelle immagini dall'alto. Per una panoramica dettagliata, puoi consultare la sezione sulla struttura del dataset qui.
Come posso citare il dataset xView nella mia ricerca?
Se utilizzi il set di dati xView nella tua ricerca, cita il seguente documento:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Per maggiori informazioni sul dataset xView, visita il sito ufficiale del dataset xView.