Vai al contenuto

Set di dati xView

Il dataset xView è uno dei più grandi dataset di immagini dall'alto disponibili pubblicamente, contenente immagini di scene complesse di tutto il mondo annotate utilizzando bounding box. L'obiettivo del dataset xView è quello di accelerare i progressi in quattro frontiere della computer vision:

  1. Ridurre la risoluzione minima per il rilevamento.
  2. Migliorare l'efficienza dell'apprendimento.
  3. Consente la scoperta di più classi di oggetti.
  4. Migliorare il rilevamento delle classi a grana fine.

xView si basa sul successo di sfide come Common Objects in Context (COCO) e mira a sfruttare la computer vision per analizzare la crescente quantità di immagini disponibili dallo spazio, al fine di comprendere il mondo visivo in modi nuovi e di affrontare una serie di importanti applicazioni.

Caratteristiche principali

  • xView contiene oltre 1 milione di istanze di oggetti in 60 classi.
  • Il set di dati ha una risoluzione di 0,3 metri, fornendo immagini con una risoluzione più elevata rispetto alla maggior parte dei set di immagini satellitari pubblici.
  • xView offre una collezione diversificata di oggetti di piccole dimensioni, rari, a grana fine e multi-tipo con annotazione del rettangolo di selezione.
  • Viene fornito con un modello di base pre-addestrato che utilizza l'API per il rilevamento degli oggetti di TensorFlow e un esempio per il rilevamento degli oggetti. PyTorch.

Struttura del set di dati

Il set di dati xView è composto da immagini satellitari raccolte dai satelliti WorldView-3 a una distanza di 0,3 m dal suolo. Contiene oltre 1 milione di oggetti di 60 classi in oltre 1.400 km² di immagini.

Applicazioni

Il dataset xView è ampiamente utilizzato per l'addestramento e la valutazione di modelli di deep learning per il rilevamento di oggetti in immagini dall'alto. La varietà di classi di oggetti e le immagini ad alta risoluzione rendono il dataset una risorsa preziosa per i ricercatori e i professionisti nel campo della computer vision, in particolare per l'analisi delle immagini satellitari.

Set di dati YAML

Un file YAML (Yet Another Markup Language) è usato per definire la configurazione del dataset. Contiene informazioni sui percorsi del dataset, sulle classi e altre informazioni rilevanti. Nel caso del set di dati xView, il file xView.yaml Il file viene mantenuto all'indirizzo https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.

ultralytics/cfg/datasets/xView.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# --------  DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command!  --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── xView  ← downloads here (20.7 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images

# Classes
names:
  0: Fixed-wing Aircraft
  1: Small Aircraft
  2: Cargo Plane
  3: Helicopter
  4: Passenger Vehicle
  5: Small Car
  6: Bus
  7: Pickup Truck
  8: Utility Truck
  9: Truck
  10: Cargo Truck
  11: Truck w/Box
  12: Truck Tractor
  13: Trailer
  14: Truck w/Flatbed
  15: Truck w/Liquid
  16: Crane Truck
  17: Railway Vehicle
  18: Passenger Car
  19: Cargo Car
  20: Flat Car
  21: Tank car
  22: Locomotive
  23: Maritime Vessel
  24: Motorboat
  25: Sailboat
  26: Tugboat
  27: Barge
  28: Fishing Vessel
  29: Ferry
  30: Yacht
  31: Container Ship
  32: Oil Tanker
  33: Engineering Vehicle
  34: Tower crane
  35: Container Crane
  36: Reach Stacker
  37: Straddle Carrier
  38: Mobile Crane
  39: Dump Truck
  40: Haul Truck
  41: Scraper/Tractor
  42: Front loader/Bulldozer
  43: Excavator
  44: Cement Mixer
  45: Ground Grader
  46: Hut/Tent
  47: Shed
  48: Building
  49: Aircraft Hangar
  50: Damaged Building
  51: Facility
  52: Construction Site
  53: Vehicle Lot
  54: Helipad
  55: Storage Tank
  56: Shipping container lot
  57: Shipping Container
  58: Pylon
  59: Tower

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import os
  from pathlib import Path

  import numpy as np
  from PIL import Image
  from tqdm import tqdm

  from ultralytics.data.utils import autosplit
  from ultralytics.utils.ops import xyxy2xywhn


  def convert_labels(fname=Path('xView/xView_train.geojson')):
      # Convert xView geoJSON labels to YOLO format
      path = fname.parent
      with open(fname) as f:
          print(f'Loading {fname}...')
          data = json.load(f)

      # Make dirs
      labels = Path(path / 'labels' / 'train')
      os.system(f'rm -rf {labels}')
      labels.mkdir(parents=True, exist_ok=True)

      # xView classes 11-94 to 0-59
      xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
                           12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
                           29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
                           47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]

      shapes = {}
      for feature in tqdm(data['features'], desc=f'Converting {fname}'):
          p = feature['properties']
          if p['bounds_imcoords']:
              id = p['image_id']
              file = path / 'train_images' / id
              if file.exists():  # 1395.tif missing
                  try:
                      box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
                      assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
                      cls = p['type_id']
                      cls = xview_class2index[int(cls)]  # xView class to 0-60
                      assert 59 >= cls >= 0, f'incorrect class index {cls}'

                      # Write YOLO label
                      if id not in shapes:
                          shapes[id] = Image.open(file).size
                      box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
                      with open((labels / id).with_suffix('.txt'), 'a') as f:
                          f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n")  # write label.txt
                  except Exception as e:
                      print(f'WARNING: skipping one label for {file}: {e}')


  # Download manually from https://challenge.xviewdataset.org
  dir = Path(yaml['path'])  # dataset root dir
  # urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip',  # train labels
  #         'https://d307kc0mrhucc3.cloudfront.net/train_images.zip',  # 15G, 847 train images
  #         'https://d307kc0mrhucc3.cloudfront.net/val_images.zip']  # 5G, 282 val images (no labels)
  # download(urls, dir=dir)

  # Convert labels
  convert_labels(dir / 'xView_train.geojson')

  # Move images
  images = Path(dir / 'images')
  images.mkdir(parents=True, exist_ok=True)
  Path(dir / 'train_images').rename(dir / 'images' / 'train')
  Path(dir / 'val_images').rename(dir / 'images' / 'val')

  # Split
  autosplit(dir / 'images' / 'train')

Utilizzo

Per addestrare un modello sul dataset xView per 100 epoche con una dimensione dell'immagine di 640, si possono usare i seguenti frammenti di codice. Per un elenco completo degli argomenti disponibili, consultare la pagina di addestramento del modello.

Esempio di treno

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Dati e annotazioni di esempio

Il set di dati xView contiene immagini satellitari ad alta risoluzione con una serie diversificata di oggetti annotati mediante caselle di delimitazione. Ecco alcuni esempi di dati del dataset, con le relative annotazioni:

Immagine campione del set di dati

  • Immagini dall'alto: Questa immagine mostra un esempio di rilevamento di oggetti in immagini dall'alto, dove gli oggetti sono annotati con caselle di delimitazione. Il set di dati fornisce immagini satellitari ad alta risoluzione per facilitare lo sviluppo di modelli per questo compito.

L'esempio mostra la varietà e la complessità dei dati del set di dati xView e sottolinea l'importanza delle immagini satellitari di alta qualità per le attività di rilevamento degli oggetti.

Citazioni e ringraziamenti

Se utilizzate il set di dati xView nel vostro lavoro di ricerca o sviluppo, siete pregati di citare il seguente documento:

@misc{lam2018xview,
      title={xView: Objects in Context in Overhead Imagery},
      author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
      year={2018},
      eprint={1802.07856},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Desideriamo ringraziare la Defense Innovation Unit (DIU) e i creatori del dataset xView per il loro prezioso contributo alla comunità di ricerca sulla computer vision. Per ulteriori informazioni sul dataset xView e sui suoi creatori, visitare il sito web del dataset xView.

FAQ

Che cos'è il dataset xView e in che modo è utile alla ricerca sulla computer vision?

Il set di dati xView è una delle più grandi raccolte pubbliche di immagini dall'alto ad alta risoluzione, contenente oltre 1 milione di istanze di oggetti in 60 classi. È stato progettato per migliorare vari aspetti della ricerca sulla computer vision, come la riduzione della risoluzione minima per il rilevamento, il miglioramento dell'efficienza di apprendimento, la scoperta di un maggior numero di classi di oggetti e l'avanzamento del rilevamento di oggetti a grana fine.

Come posso utilizzare Ultralytics YOLO per addestrare un modello sul dataset xView?

Per addestrare un modello sul set di dati xView utilizzando Ultralytics YOLO , procedere come segue:

Esempio di treno

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Per argomenti e impostazioni dettagliate, consultare la pagina di formazione del modello.

Quali sono le caratteristiche principali del dataset xView?

Il dataset xView si distingue per la sua serie completa di caratteristiche:

  • Oltre 1 milione di istanze di oggetti in 60 classi distinte.
  • Immagini ad alta risoluzione a 0,3 metri.
  • Diversi tipi di oggetti, compresi quelli piccoli, rari e a grana fine, tutti annotati con caselle di delimitazione.
  • Disponibilità di un modello di base pre-addestrato e di esempi in TensorFlow e PyTorch.

Qual è la struttura del dataset di xView e come viene annotato?

Il set di dati xView comprende immagini satellitari ad alta risoluzione raccolte dai satelliti WorldView-3 a una distanza di 0,3 m dal suolo. Comprende oltre 1 milione di oggetti di 60 classi in circa 1.400 km² di immagini. Ogni oggetto all'interno del dataset è annotato con caselle di delimitazione, il che lo rende ideale per l'addestramento e la valutazione di modelli di deep learning per il rilevamento di oggetti in immagini dall'alto. Per una panoramica dettagliata, è possibile consultare la sezione sulla struttura del dataset .

Come posso citare il dataset xView nella mia ricerca?

Se si utilizza il set di dati xView nella propria ricerca, si prega di citare il seguente documento:

@misc{lam2018xview,
    title={xView: Objects in Context in Overhead Imagery},
    author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
    year={2018},
    eprint={1802.07856},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}

Per ulteriori informazioni sul dataset xView, visitare il sito web ufficiale del dataset xView.

📅C reato 1 anno fa ✏️ Aggiornato 2 mesi fa

Commenti