Ensemble de données xView
The xView dataset is one of the largest publicly available datasets of overhead imagery, containing images from complex scenes around the world annotated using bounding boxes. The goal of the xView dataset is to accelerate progress in four computer vision frontiers:
- Réduis la résolution minimale pour la détection.
- Améliore l'efficacité de l'apprentissage.
- Permet de découvrir plus de classes d'objets.
- Améliorer la détection des classes à grain fin.
xView s'appuie sur le succès de défis tels que Common Objects in Context (COCO) et vise à tirer parti de la vision par ordinateur pour analyser la quantité croissante d'images disponibles provenant de l'espace afin de comprendre le monde visuel d'une nouvelle manière et de répondre à une série d'applications importantes.
Caractéristiques principales
- xView contient plus d'un million d'instances d'objets dans 60 classes.
- Le jeu de données a une résolution de 0,3 mètre, fournissant des images de plus haute résolution que la plupart des jeux de données d'imagerie satellitaire publics.
- xView features a diverse collection of small, rare, fine-grained, and multi-type objects with bounding box annotation.
- Comes with a pre-trained baseline model using the TensorFlow object detection API and an example for PyTorch.
Structure de l'ensemble de données
Le jeu de données xView est composé d'images satellites collectées à partir des satellites WorldView-3 à une distance d'échantillonnage au sol de 0,3 m. Il contient plus d'un million d'objets répartis en 60 classes sur plus de 1 400 km² d'images.
Applications
L'ensemble de données xView est largement utilisé pour la formation et l'évaluation de modèles d'apprentissage profond pour la détection d'objets dans l'imagerie aérienne. L'ensemble diversifié de classes d'objets et l'imagerie haute résolution de l'ensemble de données en font une ressource précieuse pour les chercheurs et les praticiens dans le domaine de la vision par ordinateur, en particulier pour l'analyse de l'imagerie satellite.
Jeu de données YAML
Un fichier YAML (Yet Another Markup Language) est utilisé pour définir la configuration du jeu de données. Il contient des informations sur les chemins d'accès au jeu de données, les classes et d'autres informations pertinentes. Dans le cas du jeu de données xView, le fichier xView.yaml
est maintenu à https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from tqdm import tqdm
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path('xView/xView_train.geojson')):
# Convert xView geoJSON labels to YOLO format
path = fname.parent
with open(fname) as f:
print(f'Loading {fname}...')
data = json.load(f)
# Make dirs
labels = Path(path / 'labels' / 'train')
os.system(f'rm -rf {labels}')
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in tqdm(data['features'], desc=f'Converting {fname}'):
p = feature['properties']
if p['bounds_imcoords']:
id = p['image_id']
file = path / 'train_images' / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
cls = p['type_id']
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f'incorrect class index {cls}'
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix('.txt'), 'a') as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f'WARNING: skipping one label for {file}: {e}')
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml['path']) # dataset root dir
# urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip', # train labels
# 'https://d307kc0mrhucc3.cloudfront.net/train_images.zip', # 15G, 847 train images
# 'https://d307kc0mrhucc3.cloudfront.net/val_images.zip'] # 5G, 282 val images (no labels)
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / 'xView_train.geojson')
# Move images
images = Path(dir / 'images')
images.mkdir(parents=True, exist_ok=True)
Path(dir / 'train_images').rename(dir / 'images' / 'train')
Path(dir / 'val_images').rename(dir / 'images' / 'val')
# Split
autosplit(dir / 'images' / 'train')
Utilisation
To train a model on the xView dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model Training page.
Exemple de train
Exemples de données et d'annotations
L'ensemble de données xView contient des images satellites à haute résolution avec un ensemble varié d'objets annotés à l'aide de boîtes de délimitation. Voici quelques exemples de données issues de l'ensemble de données, ainsi que les annotations correspondantes :
- Overhead Imagery: This image demonstrates an example of object detection in overhead imagery, where objects are annotated with bounding boxes. The dataset provides high-resolution satellite images to facilitate the development of models for this task.
Cet exemple montre la variété et la complexité des données de l'ensemble de données xView et souligne l'importance d'une imagerie satellite de haute qualité pour les tâches de détection d'objets.
Citations et remerciements
Si tu utilises le jeu de données xView dans tes travaux de recherche ou de développement, cite l'article suivant :
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Nous tenons à remercier la Defense Innovation Unit (DIU) et les créateurs du jeu de données xView pour leur précieuse contribution à la communauté des chercheurs en vision par ordinateur. Pour plus d'informations sur le jeu de données xView et ses créateurs, visite le site web du jeu de données xView.
FAQ
Qu'est-ce que l'ensemble de données xView et en quoi est-il utile à la recherche sur la vision par ordinateur ?
L'ensemble de données xView est l'une des plus grandes collections publiques d'images aériennes à haute résolution, contenant plus d'un million d'instances d'objets réparties en 60 classes. Il est conçu pour améliorer diverses facettes de la recherche en vision artificielle, comme la réduction de la résolution minimale pour la détection, l'amélioration de l'efficacité de l'apprentissage, la découverte d'un plus grand nombre de classes d'objets et l'avancement de la détection d'objets à grain fin.
Comment puis-je utiliser Ultralytics YOLO pour entraîner un modèle sur l'ensemble de données xView ?
Pour entraîner un modèle sur l'ensemble de données xView à l'aide de Ultralytics YOLO , suis les étapes suivantes :
Exemple de train
Pour les arguments et les réglages détaillés, reporte-toi à la page Formation du modèle.
Quelles sont les principales caractéristiques de l'ensemble de données xView ?
The xView dataset stands out due to its comprehensive set of features:
- Over 1 million object instances across 60 distinct classes.
- High-resolution imagery at 0.3 meters.
- Diverse object types including small, rare, and fine-grained objects, all annotated with bounding boxes.
- Availability of a pre-trained baseline model and examples in TensorFlow and PyTorch.
Quelle est la structure du jeu de données de xView et comment est-il annoté ?
The xView dataset comprises high-resolution satellite images collected from WorldView-3 satellites at a 0.3m ground sample distance. It encompasses over 1 million objects across 60 classes in approximately 1,400 km² of imagery. Each object within the dataset is annotated with bounding boxes, making it ideal for training and evaluating deep learning models for object detection in overhead imagery. For a detailed overview, you can look at the dataset structure section here.
Comment citer l'ensemble de données xView dans ma recherche ?
Si tu utilises l'ensemble de données xView dans tes recherches, cite l'article suivant :
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Pour plus d'informations sur l'ensemble de données xView, visite le site officiel de l'ensemble de données xView.