Conjunto de datos xView
El conjunto de datos xView es uno de los conjuntos de datos de imágenes aéreas disponibles públicamente más grandes, que contiene imágenes de escenas complejas de todo el mundo anotadas mediante cuadros delimitadores. El objetivo del conjunto de datos xView es acelerar el progreso en cuatro fronteras de la visión artificial:
- Reducir la resolución mínima para la detección.
- Mejorar la eficiencia del aprendizaje.
- Permitir el descubrimiento de más clases de objetos.
- Mejorar la detección de clases de grano fino.
xView se basa en el éxito de desafíos como Common Objects in Context (COCO) y tiene como objetivo aprovechar la visión artificial para analizar la creciente cantidad de imágenes disponibles desde el espacio con el fin de comprender el mundo visual de nuevas maneras y abordar una variedad de aplicaciones importantes.
Descarga Manual Requerida
El dataset xView no se descarga automáticamente mediante los scripts de Ultralytics. Debes descargar manualmente el dataset primero desde la fuente oficial:
- Fuente: Desafío DIUx xView 2018 por la Agencia Nacional de Inteligencia Geoespacial de EE. UU. (NGA)
- URL: https://challenge.xviewdataset.org
Importante: Después de descargar los archivos necesarios (por ejemplo, train_images.tif
, val_images.tif
, xView_train.geojson
), necesita extraerlos y colocarlos en la estructura de directorios correcta, que normalmente se espera en datasets/xView/
carpeta, antes ejecutando los comandos de entrenamiento que se proporcionan a continuación. Asegúrese de que el conjunto de datos esté configurado correctamente según las instrucciones del desafío.
Características clave
- xView contiene más de 1 millón de instancias de objetos en 60 clases.
- El conjunto de datos tiene una resolución de 0.3 metros, lo que proporciona imágenes de mayor resolución que la mayoría de los conjuntos de datos de imágenes de satélite públicos.
- xView presenta una colección diversa de objetos pequeños, raros, de grano fino y de múltiples tipos con anotaciones de bounding box.
- Viene con un modelo de referencia preentrenado utilizando la API de detección de objetos de TensorFlow y un ejemplo para PyTorch.
Estructura del conjunto de datos
El conjunto de datos xView se compone de imágenes de satélite recogidas de satélites WorldView-3 a una distancia de muestreo terrestre de 0,3 m. Contiene más de 1 millón de objetos en 60 clases en más de 1.400 km² de imágenes. El conjunto de datos es particularmente valioso para aplicaciones de teledetección y monitorización ambiental.
Aplicaciones
El conjunto de datos xView se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo para la detección de objetos en imágenes aéreas. El diverso conjunto de clases de objetos y las imágenes de alta resolución del conjunto de datos lo convierten en un recurso valioso para investigadores y profesionales en el campo de la visión artificial, especialmente para el análisis de imágenes de satélite. Las aplicaciones incluyen:
- Reconocimiento militar y de defensa
- Planificación y desarrollo urbano
- Monitoreo ambiental
- Respuesta y evaluación ante desastres
- Mapeo y gestión de infraestructuras
YAML del conjunto de datos
Se utiliza un archivo YAML (Yet Another Markup Language) para definir la configuración del conjunto de datos. Contiene información sobre las rutas, las clases y otra información relevante del conjunto de datos. En el caso del conjunto de datos xView, el xView.yaml
archivo se mantiene en https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.
ultralytics/cfg/datasets/xView.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# -------- DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command! --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
# └── xView ← downloads here (20.7 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images
# Classes
names:
0: Fixed-wing Aircraft
1: Small Aircraft
2: Cargo Plane
3: Helicopter
4: Passenger Vehicle
5: Small Car
6: Bus
7: Pickup Truck
8: Utility Truck
9: Truck
10: Cargo Truck
11: Truck w/Box
12: Truck Tractor
13: Trailer
14: Truck w/Flatbed
15: Truck w/Liquid
16: Crane Truck
17: Railway Vehicle
18: Passenger Car
19: Cargo Car
20: Flat Car
21: Tank car
22: Locomotive
23: Maritime Vessel
24: Motorboat
25: Sailboat
26: Tugboat
27: Barge
28: Fishing Vessel
29: Ferry
30: Yacht
31: Container Ship
32: Oil Tanker
33: Engineering Vehicle
34: Tower crane
35: Container Crane
36: Reach Stacker
37: Straddle Carrier
38: Mobile Crane
39: Dump Truck
40: Haul Truck
41: Scraper/Tractor
42: Front loader/Bulldozer
43: Excavator
44: Cement Mixer
45: Ground Grader
46: Hut/Tent
47: Shed
48: Building
49: Aircraft Hangar
50: Damaged Building
51: Facility
52: Construction Site
53: Vehicle Lot
54: Helipad
55: Storage Tank
56: Shipping container lot
57: Shipping Container
58: Pylon
59: Tower
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import json
import os
from pathlib import Path
import numpy as np
from PIL import Image
from ultralytics.utils import TQDM
from ultralytics.data.utils import autosplit
from ultralytics.utils.ops import xyxy2xywhn
def convert_labels(fname=Path("xView/xView_train.geojson")):
"""Converts xView geoJSON labels to YOLO format, mapping classes to indices 0-59 and saving as text files."""
path = fname.parent
with open(fname, encoding="utf-8") as f:
print(f"Loading {fname}...")
data = json.load(f)
# Make dirs
labels = Path(path / "labels" / "train")
os.system(f"rm -rf {labels}")
labels.mkdir(parents=True, exist_ok=True)
# xView classes 11-94 to 0-59
xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]
shapes = {}
for feature in TQDM(data["features"], desc=f"Converting {fname}"):
p = feature["properties"]
if p["bounds_imcoords"]:
id = p["image_id"]
file = path / "train_images" / id
if file.exists(): # 1395.tif missing
try:
box = np.array([int(num) for num in p["bounds_imcoords"].split(",")])
assert box.shape[0] == 4, f"incorrect box shape {box.shape[0]}"
cls = p["type_id"]
cls = xview_class2index[int(cls)] # xView class to 0-60
assert 59 >= cls >= 0, f"incorrect class index {cls}"
# Write YOLO label
if id not in shapes:
shapes[id] = Image.open(file).size
box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
with open((labels / id).with_suffix(".txt"), "a", encoding="utf-8") as f:
f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n") # write label.txt
except Exception as e:
print(f"WARNING: skipping one label for {file}: {e}")
# Download manually from https://challenge.xviewdataset.org
dir = Path(yaml["path"]) # dataset root dir
# urls = [
# "https://d307kc0mrhucc3.cloudfront.net/train_labels.zip", # train labels
# "https://d307kc0mrhucc3.cloudfront.net/train_images.zip", # 15G, 847 train images
# "https://d307kc0mrhucc3.cloudfront.net/val_images.zip", # 5G, 282 val images (no labels)
# ]
# download(urls, dir=dir)
# Convert labels
convert_labels(dir / "xView_train.geojson")
# Move images
images = Path(dir / "images")
images.mkdir(parents=True, exist_ok=True)
Path(dir / "train_images").rename(dir / "images" / "train")
Path(dir / "val_images").rename(dir / "images" / "val")
# Split
autosplit(dir / "images" / "train")
Uso
Para entrenar un modelo en el conjunto de datos xView durante 100 epochs con un tamaño de imagen de 640, puede utilizar los siguientes fragmentos de código. Para obtener una lista completa de los argumentos disponibles, consulte la página de Entrenamiento del modelo.
Ejemplo de entrenamiento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Datos de muestra y anotaciones
El conjunto de datos xView contiene imágenes de satélite de alta resolución con un conjunto diverso de objetos anotados mediante bounding boxes. Aquí hay algunos ejemplos de datos del conjunto de datos, junto con sus correspondientes anotaciones:
- Imágenes aéreas: Esta imagen muestra un ejemplo de detección de objetos en imágenes aéreas, donde los objetos se anotan con bounding boxes. El conjunto de datos proporciona imágenes de satélite de alta resolución para facilitar el desarrollo de modelos para esta tarea.
El ejemplo muestra la variedad y complejidad de los datos en el conjunto de datos xView y destaca la importancia de las imágenes de satélite de alta calidad para las tareas de detección de objetos.
Conjuntos de datos relacionados
Si está trabajando con imágenes de satélite, también podría interesarle explorar estos conjuntos de datos relacionados:
- DOTA-v2: Un conjunto de datos para la detección de objetos orientados en imágenes aéreas
- VisDrone: Un conjunto de datos para la detección y el seguimiento de objetos en imágenes capturadas por drones.
- Argoverse: Un conjunto de datos para la conducción autónoma con anotaciones de seguimiento 3D
Citas y agradecimientos
Si utiliza el conjunto de datos xView en su trabajo de investigación o desarrollo, cite el siguiente artículo:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Nos gustaría agradecer a la Defense Innovation Unit (DIU) y a los creadores del conjunto de datos xView por su valiosa contribución a la comunidad de investigación en visión artificial. Para obtener más información sobre el conjunto de datos xView y sus creadores, visite el sitio web del conjunto de datos xView.
Preguntas frecuentes
¿Qué es el conjunto de datos xView y cómo beneficia la investigación en visión artificial?
El conjunto de datos xView es una de las mayores colecciones de imágenes aéreas de alta resolución disponibles públicamente, que contiene más de 1 millón de instancias de objetos en 60 clases. Está diseñado para mejorar varias facetas de la investigación en visión artificial, como la reducción de la resolución mínima para la detección, la mejora de la eficiencia del aprendizaje, el descubrimiento de más clases de objetos y el avance de la detección de objetos de grano fino.
¿Cómo puedo usar Ultralytics YOLO para entrenar un modelo en el conjunto de datos xView?
Para entrenar un modelo en el conjunto de datos xView utilizando Ultralytics YOLO, sigue estos pasos:
Ejemplo de entrenamiento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640
Para obtener argumentos y configuraciones detalladas, consulte la página de Entrenamiento del modelo.
¿Cuáles son las características clave del conjunto de datos xView?
El conjunto de datos xView destaca por su conjunto completo de características:
- Más de 1 millón de instancias de objetos en 60 clases distintas.
- Imágenes de alta resolución a 0.3 metros.
- Diversos tipos de objetos, incluidos objetos pequeños, raros y de grano fino, todos anotados con bounding boxes.
- Disponibilidad de un modelo de referencia pre-entrenado y ejemplos en TensorFlow y PyTorch.
¿Cuál es la estructura del conjunto de datos de xView y cómo está anotado?
El dataset xView contiene imágenes de satélite de alta resolución capturadas por satélites WorldView-3 a una distancia de muestreo terrestre de 0,3 m, que cubren más de 1 millón de objetos en 60 clases distintas dentro de aproximadamente 1.400 km² de imágenes anotadas. Cada objeto está etiquetado con bounding boxes, lo que hace que el dataset sea muy adecuado para entrenar y evaluar modelos de deep learning para la detección de objetos en vistas aéreas. Para un desglose detallado, consulta la sección Estructura del Dataset.
¿Cómo cito el conjunto de datos xView en mi investigación?
Si utiliza el conjunto de datos xView en su investigación, cite el siguiente artículo:
@misc{lam2018xview,
title={xView: Objects in Context in Overhead Imagery},
author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
year={2018},
eprint={1802.07856},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
Para obtener más información sobre el conjunto de datos xView, visite el sitio web oficial del conjunto de datos xView.