Conjunto de datos xView
The xView dataset is one of the largest publicly available datasets of overhead imagery, containing images from complex scenes around the world annotated using bounding boxes. The goal of the xView dataset is to accelerate progress in four computer vision frontiers:
- Reduce la resolución mínima para la detección.
- Mejora la eficacia del aprendizaje.
- Permite descubrir más clases de objetos.
- Mejorar la detección de clases finas.
xView se basa en el éxito de retos como Objetos Comunes en Contexto (COCO) y pretende aprovechar la visión por ordenador para analizar la creciente cantidad de imágenes disponibles del espacio con el fin de comprender el mundo visual de nuevas formas y abordar una serie de aplicaciones importantes.
Características principales
- xView contiene más de 1 millón de instancias de objetos en 60 clases.
- El conjunto de datos tiene una resolución de 0,3 metros, lo que proporciona imágenes de mayor resolución que la mayoría de los conjuntos de datos públicos de imágenes de satélite.
- xView features a diverse collection of small, rare, fine-grained, and multi-type objects with bounding box annotation.
- Comes with a pre-trained baseline model using the TensorFlow object detection API and an example for PyTorch.
Estructura del conjunto de datos
El conjunto de datos xView se compone de imágenes de satélite recogidas desde los satélites WorldView-3 a una distancia de muestreo del suelo de 0,3 m. Contiene más de 1 millón de objetos de 60 clases en más de 1.400 km² de imágenes.
Aplicaciones
El conjunto de datos xView se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo para la detección de objetos en imágenes aéreas. El variado conjunto de clases de objetos y las imágenes de alta resolución del conjunto de datos lo convierten en un valioso recurso para investigadores y profesionales del campo de la visión por ordenador, especialmente para el análisis de imágenes de satélite.
Conjunto de datos YAML
Se utiliza un archivo YAML (Yet Another Markup Language) para definir la configuración del conjunto de datos. Contiene información sobre las rutas del conjunto de datos, las clases y otra información relevante. En el caso del conjunto de datos xView, el archivo xView.yaml
se mantiene en https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from tqdm import tqdm
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path('xView/xView_train.geojson')):
# Convert xView geoJSON labels to YOLO format
path = fname.parent
with open(fname) as f:
print(f'Loading {fname}...')
data = json.load(f)
# Make dirs
labels = Path(path / 'labels' / 'train')
os.system(f'rm -rf {labels}')
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in tqdm(data['features'], desc=f'Converting {fname}'):
p = feature['properties']
if p['bounds_imcoords']:
id = p['image_id']
file = path / 'train_images' / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
cls = p['type_id']
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f'incorrect class index {cls}'
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix('.txt'), 'a') as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f'WARNING: skipping one label for {file}: {e}')
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml['path']) # dataset root dir
# urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip', # train labels
# 'https://d307kc0mrhucc3.cloudfront.net/train_images.zip', # 15G, 847 train images
# 'https://d307kc0mrhucc3.cloudfront.net/val_images.zip'] # 5G, 282 val images (no labels)
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / 'xView_train.geojson')
# Move images
images = Path(dir / 'images')
images.mkdir(parents=True, exist_ok=True)
Path(dir / 'train_images').rename(dir / 'images' / 'train')
Path(dir / 'val_images').rename(dir / 'images' / 'val')
# Split
autosplit(dir / 'images' / 'train')
Utilización
To train a model on the xView dataset for 100 epochs with an image size of 640, you can use the following code snippets. For a comprehensive list of available arguments, refer to the model Training page.
Ejemplo de tren
Muestra de datos y anotaciones
El conjunto de datos xView contiene imágenes de satélite de alta resolución con un variado conjunto de objetos anotados mediante cuadros delimitadores. He aquí algunos ejemplos de datos del conjunto de datos, junto con sus correspondientes anotaciones:
- Overhead Imagery: This image demonstrates an example of object detection in overhead imagery, where objects are annotated with bounding boxes. The dataset provides high-resolution satellite images to facilitate the development of models for this task.
El ejemplo muestra la variedad y complejidad de los datos del conjunto de datos xView y destaca la importancia de las imágenes de satélite de alta calidad para las tareas de detección de objetos.
Citas y agradecimientos
Si utilizas el conjunto de datos xView en tu trabajo de investigación o desarrollo, cita el siguiente documento:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Nos gustaría agradecer a la Unidad de Innovación de Defensa (DIU) y a los creadores del conjunto de datos xView su valiosa contribución a la comunidad de investigación en visión por ordenador. Para más información sobre el conjunto de datos xView y sus creadores, visita el sitio web del conjunto de datos xView.
PREGUNTAS FRECUENTES
¿Qué es el conjunto de datos xView y cómo beneficia a la investigación de la visión por ordenador?
El conjunto de datos xView es una de las mayores colecciones públicas disponibles de imágenes aéreas de alta resolución, que contiene más de 1 millón de instancias de objetos de 60 clases. Está diseñado para mejorar diversas facetas de la investigación en visión por ordenador, como reducir la resolución mínima para la detección, mejorar la eficacia del aprendizaje, descubrir más clases de objetos y avanzar en la detección de objetos de grano fino.
¿Cómo puedo utilizar Ultralytics YOLO para entrenar un modelo en el conjunto de datos xView?
Para entrenar un modelo en el conjunto de datos xView utilizando Ultralytics YOLO , sigue estos pasos:
Ejemplo de tren
Para conocer los argumentos y ajustes detallados, consulta la página de Formación del modelo.
¿Cuáles son las características principales del conjunto de datos xView?
The xView dataset stands out due to its comprehensive set of features:
- Over 1 million object instances across 60 distinct classes.
- High-resolution imagery at 0.3 meters.
- Diverse object types including small, rare, and fine-grained objects, all annotated with bounding boxes.
- Availability of a pre-trained baseline model and examples in TensorFlow and PyTorch.
¿Cuál es la estructura del conjunto de datos de xView y cómo se anota?
The xView dataset comprises high-resolution satellite images collected from WorldView-3 satellites at a 0.3m ground sample distance. It encompasses over 1 million objects across 60 classes in approximately 1,400 km² of imagery. Each object within the dataset is annotated with bounding boxes, making it ideal for training and evaluating deep learning models for object detection in overhead imagery. For a detailed overview, you can look at the dataset structure section here.
¿Cómo cito el conjunto de datos xView en mi investigación?
Si utilizas el conjunto de datos xView en tu investigación, cita el siguiente documento:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Para más información sobre el conjunto de datos xView, visita el sitio web oficial del conjunto de datos xView.