Ir al contenido

Conjunto de datos xView

El conjunto de datos xView es uno de los mayores conjuntos de datos de imágenes aéreas a disposición del público y contiene imágenes de escenas complejas de todo el mundo anotadas mediante recuadros delimitadores. El objetivo del conjunto de datos xView es acelerar el progreso en cuatro fronteras de la visión por ordenador:

  1. Reducir la resolución mínima para la detección.
  2. Mejorar la eficacia del aprendizaje.
  3. Permite descubrir más clases de objetos.
  4. Mejorar la detección de clases finas.

xView se basa en el éxito de retos como Common Objects in Context (COCO) y pretende aprovechar la visión por ordenador para analizar la creciente cantidad de imágenes espaciales disponibles con el fin de comprender el mundo visual de nuevas formas y abordar una serie de aplicaciones importantes.

Características principales

  • xView contiene más de 1 millón de instancias de objetos en 60 clases.
  • El conjunto de datos tiene una resolución de 0,3 metros, lo que proporciona imágenes de mayor resolución que la mayoría de los conjuntos de datos públicos de imágenes por satélite.
  • xView presenta una variada colección de objetos pequeños, raros, de grano fino y de varios tipos con anotación de caja delimitadora.
  • Viene con un modelo de referencia preentrenado que utiliza la API de detección de objetos TensorFlow y un ejemplo para PyTorch.

Estructura del conjunto de datos

El conjunto de datos xView se compone de imágenes de satélite recogidas desde los satélites WorldView-3 a una distancia de muestreo del suelo de 0,3 m. Contiene más de un millón de objetos de 60 clases en más de 1.400 km² de imágenes.

Aplicaciones

El conjunto de datos xView se utiliza ampliamente para entrenar y evaluar modelos de aprendizaje profundo para la detección de objetos en imágenes aéreas. La diversidad de clases de objetos del conjunto de datos y las imágenes de alta resolución lo convierten en un recurso valioso para investigadores y profesionales del campo de la visión por ordenador, especialmente para el análisis de imágenes de satélite.

Conjunto de datos YAML

Para definir la configuración del conjunto de datos se utiliza un archivo YAML (Yet Another Markup Language). Contiene información sobre las rutas del conjunto de datos, clases y otra información relevante. En el caso del conjunto de datos xView, el archivo xView.yaml se mantiene en https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.

ultralytics/cfg/datasets/xView.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# --------  DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command!  --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── xView  ← downloads here (20.7 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images

# Classes
names:
  0: Fixed-wing Aircraft
  1: Small Aircraft
  2: Cargo Plane
  3: Helicopter
  4: Passenger Vehicle
  5: Small Car
  6: Bus
  7: Pickup Truck
  8: Utility Truck
  9: Truck
  10: Cargo Truck
  11: Truck w/Box
  12: Truck Tractor
  13: Trailer
  14: Truck w/Flatbed
  15: Truck w/Liquid
  16: Crane Truck
  17: Railway Vehicle
  18: Passenger Car
  19: Cargo Car
  20: Flat Car
  21: Tank car
  22: Locomotive
  23: Maritime Vessel
  24: Motorboat
  25: Sailboat
  26: Tugboat
  27: Barge
  28: Fishing Vessel
  29: Ferry
  30: Yacht
  31: Container Ship
  32: Oil Tanker
  33: Engineering Vehicle
  34: Tower crane
  35: Container Crane
  36: Reach Stacker
  37: Straddle Carrier
  38: Mobile Crane
  39: Dump Truck
  40: Haul Truck
  41: Scraper/Tractor
  42: Front loader/Bulldozer
  43: Excavator
  44: Cement Mixer
  45: Ground Grader
  46: Hut/Tent
  47: Shed
  48: Building
  49: Aircraft Hangar
  50: Damaged Building
  51: Facility
  52: Construction Site
  53: Vehicle Lot
  54: Helipad
  55: Storage Tank
  56: Shipping container lot
  57: Shipping Container
  58: Pylon
  59: Tower

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import os
  from pathlib import Path

  import numpy as np
  from PIL import Image
  from tqdm import tqdm

  from ultralytics.data.utils import autosplit
  from ultralytics.utils.ops import xyxy2xywhn


  def convert_labels(fname=Path('xView/xView_train.geojson')):
      # Convert xView geoJSON labels to YOLO format
      path = fname.parent
      with open(fname) as f:
          print(f'Loading {fname}...')
          data = json.load(f)

      # Make dirs
      labels = Path(path / 'labels' / 'train')
      os.system(f'rm -rf {labels}')
      labels.mkdir(parents=True, exist_ok=True)

      # xView classes 11-94 to 0-59
      xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
                           12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
                           29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
                           47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]

      shapes = {}
      for feature in tqdm(data['features'], desc=f'Converting {fname}'):
          p = feature['properties']
          if p['bounds_imcoords']:
              id = p['image_id']
              file = path / 'train_images' / id
              if file.exists():  # 1395.tif missing
                  try:
                      box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
                      assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
                      cls = p['type_id']
                      cls = xview_class2index[int(cls)]  # xView class to 0-60
                      assert 59 >= cls >= 0, f'incorrect class index {cls}'

                      # Write YOLO label
                      if id not in shapes:
                          shapes[id] = Image.open(file).size
                      box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
                      with open((labels / id).with_suffix('.txt'), 'a') as f:
                          f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n")  # write label.txt
                  except Exception as e:
                      print(f'WARNING: skipping one label for {file}: {e}')


  # Download manually from https://challenge.xviewdataset.org
  dir = Path(yaml['path'])  # dataset root dir
  # urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip',  # train labels
  #         'https://d307kc0mrhucc3.cloudfront.net/train_images.zip',  # 15G, 847 train images
  #         'https://d307kc0mrhucc3.cloudfront.net/val_images.zip']  # 5G, 282 val images (no labels)
  # download(urls, dir=dir)

  # Convert labels
  convert_labels(dir / 'xView_train.geojson')

  # Move images
  images = Path(dir / 'images')
  images.mkdir(parents=True, exist_ok=True)
  Path(dir / 'train_images').rename(dir / 'images' / 'train')
  Path(dir / 'val_images').rename(dir / 'images' / 'val')

  # Split
  autosplit(dir / 'images' / 'train')

Utilización

Para entrenar un modelo en el conjunto de datos xView durante 100 épocas con un tamaño de imagen de 640, puede utilizar los siguientes fragmentos de código. Para obtener una lista completa de los argumentos disponibles, consulte la página de entrenamiento del modelo.

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Ejemplos de datos y anotaciones

El conjunto de datos xView contiene imágenes de satélite de alta resolución con un variado conjunto de objetos anotados mediante cuadros delimitadores. He aquí algunos ejemplos de datos del conjunto, junto con sus correspondientes anotaciones:

Imagen de muestra del conjunto de datos

  • Imágenes aéreas: Esta imagen muestra un ejemplo de detección de objetos en imágenes aéreas, donde los objetos se anotan con recuadros delimitadores. El conjunto de datos proporciona imágenes de satélite de alta resolución para facilitar el desarrollo de modelos para esta tarea.

El ejemplo muestra la variedad y complejidad de los datos del conjunto xView y subraya la importancia de las imágenes de satélite de alta calidad para las tareas de detección de objetos.

Citas y agradecimientos

Si utiliza el conjunto de datos xView en su trabajo de investigación o desarrollo, cite el siguiente documento:

@misc{lam2018xview,
      title={xView: Objects in Context in Overhead Imagery},
      author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
      year={2018},
      eprint={1802.07856},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Nos gustaría agradecer a la Unidad de Innovación de Defensa (DIU) y a los creadores del conjunto de datos xView su valiosa contribución a la comunidad de investigación en visión por ordenador. Para más información sobre el conjunto de datos xView y sus creadores, visite el sitio web del conjunto de datos xView.

PREGUNTAS FRECUENTES

¿Qué es el conjunto de datos xView y en qué beneficia a la investigación en visión por ordenador?

El conjunto de datos xView es una de las mayores colecciones públicas de imágenes aéreas de alta resolución, con más de un millón de instancias de objetos de 60 clases. Está diseñado para mejorar diversas facetas de la investigación en visión por ordenador, como la reducción de la resolución mínima para la detección, la mejora de la eficiencia del aprendizaje, el descubrimiento de más clases de objetos y el avance en la detección de objetos de grano fino.

¿Cómo puedo utilizar Ultralytics YOLO para entrenar un modelo en el conjunto de datos xView?

Para entrenar un modelo en el conjunto de datos xView utilizando Ultralytics YOLO , siga estos pasos:

Ejemplo de tren

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Para obtener información detallada sobre argumentos y ajustes, consulte la página de formación del modelo.

¿Cuáles son las principales características del conjunto de datos xView?

El conjunto de datos xView destaca por su amplio conjunto de características:

  • Más de 1 millón de instancias de objetos en 60 clases distintas.
  • Imágenes de alta resolución a 0,3 metros.
  • Diversos tipos de objetos, incluidos objetos pequeños, raros y de grano fino, todos anotados con cajas delimitadoras.
  • Disponibilidad de un modelo de referencia preentrenado y ejemplos en TensorFlow y PyTorch.

¿Cuál es la estructura del conjunto de datos de xView y cómo se anota?

El conjunto de datos xView comprende imágenes de satélite de alta resolución recogidas desde los satélites WorldView-3 a una distancia de muestreo del suelo de 0,3 m. Abarca más de un millón de objetos de 60 clases en aproximadamente 1.400 km² de imágenes. Cada objeto del conjunto de datos está anotado con cuadros delimitadores, lo que lo hace ideal para entrenar y evaluar modelos de aprendizaje profundo para la detección de objetos en imágenes aéreas. Para obtener una descripción detallada, puede consultar la sección de estructura del conjunto de datos aquí.

¿Cómo cito el conjunto de datos xView en mi investigación?

Si utiliza el conjunto de datos xView en su investigación, cite el siguiente artículo:

@misc{lam2018xview,
    title={xView: Objects in Context in Overhead Imagery},
    author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
    year={2018},
    eprint={1802.07856},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}

Para más información sobre el conjunto de datos xView, visite el sitio web oficial del conjunto de datos xView.

Creado hace 1 año ✏️ Actualizado hace 2 meses

Comentarios