Skip to content

Ensemble de données xView

L'ensemble de données xView est l'un des plus grands ensembles de données d'imagerie aérienne accessibles au public. Il contient des images de scènes complexes du monde entier annotées à l'aide de boîtes de délimitation. L'objectif de l'ensemble de données xView est d'accélérer les progrès dans quatre domaines de la vision par ordinateur:

  1. Réduire la résolution minimale pour la détection.
  2. Améliorer l'efficacité de l'apprentissage.
  3. Permettre la découverte d'un plus grand nombre de classes d'objets.
  4. Améliorer la détection des classes à grain fin.

xView s'appuie sur le succès de défis tels que Common Objects in Context (COCO) et vise à tirer parti de la vision par ordinateur pour analyser la quantité croissante d'images spatiales disponibles, afin de comprendre le monde visuel d'une nouvelle manière et de répondre à une série d'applications importantes.

Caractéristiques principales

  • xView contient plus d'un million d'instances d'objets dans 60 classes.
  • Le jeu de données a une résolution de 0,3 mètre, ce qui permet d'obtenir des images à plus haute résolution que la plupart des jeux de données publics d'imagerie satellitaire.
  • xView propose une collection variée d'objets de petite taille, rares, à grain fin et multi-types, avec annotation de la boîte englobante.
  • Il est fourni avec un modèle de base pré-entraîné utilisant l'API de détection d'objets de TensorFlow et un exemple pour PyTorch.

Structure de l'ensemble de données

Le jeu de données xView est composé d'images satellites collectées par les satellites WorldView-3 à une distance d'échantillonnage au sol de 0,3 m. Il contient plus d'un million d'objets répartis en 60 classes dans plus de 400 km² d'images. Il contient plus d'un million d'objets répartis en 60 classes sur plus de 1 400 km² d'images.

Applications

L'ensemble de données xView est largement utilisé pour l'entraînement et l'évaluation de modèles d'apprentissage profond pour la détection d'objets dans l'imagerie aérienne. La diversité des classes d'objets et la haute résolution de l'imagerie font de ce jeu de données une ressource précieuse pour les chercheurs et les praticiens dans le domaine de la vision par ordinateur, en particulier pour l'analyse de l'imagerie satellitaire.

Jeu de données YAML

Un fichier YAML (Yet Another Markup Language) est utilisé pour définir la configuration du jeu de données. Il contient des informations sur les chemins d'accès au jeu de données, les classes et d'autres informations pertinentes. Dans le cas du jeu de données xView, le fichier xView.yaml est conservé à l'adresse suivante https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/xView.yaml.

ultralytics/cfg/datasets/xView.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# DIUx xView 2018 Challenge https://challenge.xviewdataset.org by U.S. National Geospatial-Intelligence Agency (NGA)
# --------  DOWNLOAD DATA MANUALLY and jar xf val_images.zip to 'datasets/xView' before running train command!  --------
# Documentation: https://docs.ultralytics.com/datasets/detect/xview/
# Example usage: yolo train data=xView.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── xView  ← downloads here (20.7 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/xView # dataset root dir
train: images/autosplit_train.txt # train images (relative to 'path') 90% of 847 train images
val: images/autosplit_val.txt # train images (relative to 'path') 10% of 847 train images

# Classes
names:
  0: Fixed-wing Aircraft
  1: Small Aircraft
  2: Cargo Plane
  3: Helicopter
  4: Passenger Vehicle
  5: Small Car
  6: Bus
  7: Pickup Truck
  8: Utility Truck
  9: Truck
  10: Cargo Truck
  11: Truck w/Box
  12: Truck Tractor
  13: Trailer
  14: Truck w/Flatbed
  15: Truck w/Liquid
  16: Crane Truck
  17: Railway Vehicle
  18: Passenger Car
  19: Cargo Car
  20: Flat Car
  21: Tank car
  22: Locomotive
  23: Maritime Vessel
  24: Motorboat
  25: Sailboat
  26: Tugboat
  27: Barge
  28: Fishing Vessel
  29: Ferry
  30: Yacht
  31: Container Ship
  32: Oil Tanker
  33: Engineering Vehicle
  34: Tower crane
  35: Container Crane
  36: Reach Stacker
  37: Straddle Carrier
  38: Mobile Crane
  39: Dump Truck
  40: Haul Truck
  41: Scraper/Tractor
  42: Front loader/Bulldozer
  43: Excavator
  44: Cement Mixer
  45: Ground Grader
  46: Hut/Tent
  47: Shed
  48: Building
  49: Aircraft Hangar
  50: Damaged Building
  51: Facility
  52: Construction Site
  53: Vehicle Lot
  54: Helipad
  55: Storage Tank
  56: Shipping container lot
  57: Shipping Container
  58: Pylon
  59: Tower

# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
  import json
  import os
  from pathlib import Path

  import numpy as np
  from PIL import Image
  from tqdm import tqdm

  from ultralytics.data.utils import autosplit
  from ultralytics.utils.ops import xyxy2xywhn


  def convert_labels(fname=Path('xView/xView_train.geojson')):
      # Convert xView geoJSON labels to YOLO format
      path = fname.parent
      with open(fname) as f:
          print(f'Loading {fname}...')
          data = json.load(f)

      # Make dirs
      labels = Path(path / 'labels' / 'train')
      os.system(f'rm -rf {labels}')
      labels.mkdir(parents=True, exist_ok=True)

      # xView classes 11-94 to 0-59
      xview_class2index = [-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 0, 1, 2, -1, 3, -1, 4, 5, 6, 7, 8, -1, 9, 10, 11,
                           12, 13, 14, 15, -1, -1, 16, 17, 18, 19, 20, 21, 22, -1, 23, 24, 25, -1, 26, 27, -1, 28, -1,
                           29, 30, 31, 32, 33, 34, 35, 36, 37, -1, 38, 39, 40, 41, 42, 43, 44, 45, -1, -1, -1, -1, 46,
                           47, 48, 49, -1, 50, 51, -1, 52, -1, -1, -1, 53, 54, -1, 55, -1, -1, 56, -1, 57, -1, 58, 59]

      shapes = {}
      for feature in tqdm(data['features'], desc=f'Converting {fname}'):
          p = feature['properties']
          if p['bounds_imcoords']:
              id = p['image_id']
              file = path / 'train_images' / id
              if file.exists():  # 1395.tif missing
                  try:
                      box = np.array([int(num) for num in p['bounds_imcoords'].split(",")])
                      assert box.shape[0] == 4, f'incorrect box shape {box.shape[0]}'
                      cls = p['type_id']
                      cls = xview_class2index[int(cls)]  # xView class to 0-60
                      assert 59 >= cls >= 0, f'incorrect class index {cls}'

                      # Write YOLO label
                      if id not in shapes:
                          shapes[id] = Image.open(file).size
                      box = xyxy2xywhn(box[None].astype(np.float), w=shapes[id][0], h=shapes[id][1], clip=True)
                      with open((labels / id).with_suffix('.txt'), 'a') as f:
                          f.write(f"{cls} {' '.join(f'{x:.6f}' for x in box[0])}\n")  # write label.txt
                  except Exception as e:
                      print(f'WARNING: skipping one label for {file}: {e}')


  # Download manually from https://challenge.xviewdataset.org
  dir = Path(yaml['path'])  # dataset root dir
  # urls = ['https://d307kc0mrhucc3.cloudfront.net/train_labels.zip',  # train labels
  #         'https://d307kc0mrhucc3.cloudfront.net/train_images.zip',  # 15G, 847 train images
  #         'https://d307kc0mrhucc3.cloudfront.net/val_images.zip']  # 5G, 282 val images (no labels)
  # download(urls, dir=dir)

  # Convert labels
  convert_labels(dir / 'xView_train.geojson')

  # Move images
  images = Path(dir / 'images')
  images.mkdir(parents=True, exist_ok=True)
  Path(dir / 'train_images').rename(dir / 'images' / 'train')
  Path(dir / 'val_images').rename(dir / 'images' / 'val')

  # Split
  autosplit(dir / 'images' / 'train')

Utilisation

Pour entraîner un modèle sur l'ensemble de données xView pour 100 époques avec une taille d'image de 640, vous pouvez utiliser les extraits de code suivants. Pour une liste complète des arguments disponibles, reportez-vous à la page Entraînement du modèle.

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Exemples de données et d'annotations

Le jeu de données xView contient des images satellite à haute résolution avec un ensemble varié d'objets annotés à l'aide de boîtes de délimitation. Voici quelques exemples de données issues de l'ensemble de données, ainsi que les annotations correspondantes :

Image de l'échantillon de l'ensemble de données

  • Imagerie aérienne: Cette image montre un exemple de détection d' objets dans des images aériennes, où les objets sont annotés avec des boîtes de délimitation. Le jeu de données fournit des images satellite à haute résolution pour faciliter le développement de modèles pour cette tâche.

Cet exemple illustre la variété et la complexité des données du jeu de données xView et souligne l'importance d'une imagerie satellitaire de haute qualité pour les tâches de détection d'objets.

Citations et remerciements

Si vous utilisez l'ensemble de données xView dans vos travaux de recherche ou de développement, veuillez citer l'article suivant :

@misc{lam2018xview,
      title={xView: Objects in Context in Overhead Imagery},
      author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
      year={2018},
      eprint={1802.07856},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Nous tenons à remercier la Defense Innovation Unit (DIU) et les créateurs du jeu de données xView pour leur précieuse contribution à la communauté des chercheurs en vision par ordinateur. Pour plus d'informations sur le jeu de données xView et ses créateurs, visitez le site web du jeu de données xView.

FAQ

Qu'est-ce que l'ensemble de données xView et en quoi est-il utile à la recherche sur la vision par ordinateur ?

L'ensemble de données xView est l'une des plus grandes collections publiques d'images aériennes à haute résolution, contenant plus d'un million d'instances d'objets réparties en 60 classes. Il est conçu pour améliorer diverses facettes de la recherche en vision artificielle, telles que la réduction de la résolution minimale pour la détection, l'amélioration de l'efficacité de l'apprentissage, la découverte d'un plus grand nombre de classes d'objets et l'avancement de la détection d'objets à grain fin.

Comment puis-je utiliser Ultralytics YOLO pour former un modèle sur l'ensemble de données xView ?

Pour entraîner un modèle sur l'ensemble de données xView à l'aide de Ultralytics YOLO , procédez comme suit :

Exemple de train

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="xView.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=xView.yaml model=yolo11n.pt epochs=100 imgsz=640

Pour des arguments et des réglages détaillés, reportez-vous à la page Formation du modèle.

Quelles sont les principales caractéristiques de l'ensemble de données xView ?

L'ensemble de données xView se distingue par son ensemble complet de caractéristiques :

  • Plus d'un million d'instances d'objets dans 60 classes distinctes.
  • Imagerie à haute résolution à 0,3 mètre.
  • Divers types d'objets, y compris des objets de petite taille, rares et à grain fin, tous annotés avec des boîtes de délimitation.
  • Disponibilité d'un modèle de base pré-entraîné et d'exemples sur TensorFlow et PyTorch.

Quelle est la structure de l'ensemble de données de xView et comment est-elle annotée ?

Le jeu de données xView comprend des images satellite à haute résolution collectées par les satellites WorldView-3 à une distance d'échantillonnage au sol de 0,3 m. Il comprend plus d'un million d'objets répartis en 60 classes sur environ 400 km² d'images. Il comprend plus d'un million d'objets répartis en 60 classes sur environ 1 400 km² d'images. Chaque objet de l'ensemble de données est annoté avec des boîtes de délimitation, ce qui le rend idéal pour l'entraînement et l'évaluation de modèles d'apprentissage profond pour la détection d'objets dans l'imagerie aérienne. Pour un aperçu détaillé, vous pouvez consulter la section sur la structure du jeu de données ici.

Comment citer l'ensemble de données xView dans ma recherche ?

Si vous utilisez l'ensemble de données xView dans votre recherche, veuillez citer l'article suivant :

@misc{lam2018xview,
    title={xView: Objects in Context in Overhead Imagery},
    author={Darius Lam and Richard Kuzma and Kevin McGee and Samuel Dooley and Michael Laielli and Matthew Klaric and Yaroslav Bulatov and Brendan McCord},
    year={2018},
    eprint={1802.07856},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}

Pour plus d'informations sur l'ensemble de données xView, visitez le site officiel de l 'ensemble de données xView.

📅C réé il y a 1 an ✏️ Mis à jour il y a 2 mois

Commentaires