Saltar al contenido

Visi贸n general de los conjuntos de datos

Ultralytics proporciona soporte para varios conjuntos de datos con el fin de facilitar tareas de visi贸n por ordenador como la detecci贸n, la segmentaci贸n de instancias, la estimaci贸n de poses, la clasificaci贸n y el seguimiento multiobjeto. A continuaci贸n figura una lista de los principales conjuntos de datos de Ultralytics , seguida de un resumen de cada tarea de visi贸n por ordenador y los respectivos conjuntos de datos.



Observa: Ultralytics Visi贸n general de los conjuntos de datos

NUEVO 馃殌 Ultralytics Explorador

Crea incrustaciones para tu conjunto de datos, busca im谩genes similares, ejecuta consultas SQL, realiza b煤squedas sem谩nticas 隆e incluso busca utilizando lenguaje natural! Puedes empezar con nuestra aplicaci贸n GUI o crear la tuya propia utilizando la API. M谩s informaci贸n aqu铆.

Ultralytics Captura de pantalla del Explorador

Detecci贸n de objetos

La detecci贸n de objetos mediante cajas delimitadoras es una t茅cnica de visi贸n por ordenador que consiste en detectar y localizar objetos en una imagen dibujando una caja delimitadora alrededor de cada objeto.

  • Argoverse: Un conjunto de datos que contiene datos de seguimiento 3D y previsi贸n de movimiento de entornos urbanos con ricas anotaciones.
  • COCO: Objetos Comunes en Contexto (COCO) es un conjunto de datos a gran escala de detecci贸n, segmentaci贸n y subtitulaci贸n de objetos con 80 categor铆as de objetos.
  • LVIS: Un conjunto de datos a gran escala de detecci贸n, segmentaci贸n y subtitulaci贸n de objetos con 1203 categor铆as de objetos.
  • COCO8: Un subconjunto m谩s peque帽o de las 4 primeras im谩genes de COCO train y COCO val, adecuado para pruebas r谩pidas.
  • Trigo Global 2020: Un conjunto de datos que contiene im谩genes de cabezas de trigo para el Desaf铆o Mundial del Trigo 2020.
  • Objetos365: Un conjunto de datos a gran escala y de alta calidad para la detecci贸n de objetos, con 365 categor铆as de objetos y m谩s de 600.000 im谩genes anotadas.
  • OpenImagesV7: Un amplio conjunto de datos de Google con 1,7 millones de im谩genes de entrenamiento y 42.000 im谩genes de validaci贸n.
  • SKU-110K: Un conjunto de datos de detecci贸n de objetos densos en entornos comerciales con m谩s de 11.000 im谩genes y 1,7 millones de cuadros delimitadores.
  • VisDrone: Un conjunto de datos que contiene datos de detecci贸n de objetos y seguimiento multiobjeto a partir de im谩genes capturadas por drones, con m谩s de 10.000 im谩genes y secuencias de v铆deo.
  • VOC: El conjunto de datos Pascal Visual Object Classes (VOC) para la detecci贸n y segmentaci贸n de objetos, con 20 clases de objetos y m谩s de 11.000 im谩genes.
  • xVer: Un conjunto de datos para la detecci贸n de objetos en im谩genes a茅reas con 60 categor铆as de objetos y m谩s de 1 mill贸n de objetos anotados.
  • Roboflow 100: Una prueba comparativa de detecci贸n de objetos diversos con 100 conjuntos de datos que abarcan siete dominios de im谩genes para la evaluaci贸n exhaustiva de modelos.
  • Tumor cerebral: Un conjunto de datos para detectar tumores cerebrales incluye im谩genes de resonancia magn茅tica o tomograf铆a computarizada con detalles sobre la presencia, localizaci贸n y caracter铆sticas del tumor.
  • Vida salvaje africana: Un conjunto de datos con im谩genes de la fauna africana, incluidos b煤falos, elefantes, rinocerontes y cebras.
  • Firma: Un conjunto de datos con im谩genes de varios documentos con firmas anotadas, que sirve de apoyo a la investigaci贸n sobre verificaci贸n de documentos y detecci贸n de fraudes.

Segmentaci贸n de instancias

La segmentaci贸n de instancias es una t茅cnica de visi贸n por ordenador que consiste en identificar y localizar objetos en una imagen a nivel de p铆xel.

  • COCO: Un conjunto de datos a gran escala dise帽ado para tareas de detecci贸n, segmentaci贸n y subtitulaci贸n de objetos con m谩s de 200.000 im谩genes etiquetadas.
  • COCO8-seg: Un conjunto de datos m谩s peque帽o para tareas de segmentaci贸n de instancias, que contiene un subconjunto de 8 im谩genes COCO con anotaciones de segmentaci贸n.
  • Crack-seg: Conjunto de datos espec铆ficamente dise帽ado para detectar grietas en carreteras y muros, aplicable tanto a tareas de detecci贸n de objetos como de segmentaci贸n.
  • Paquete-seg: Conjunto de datos adaptado para identificar paquetes en almacenes o entornos industriales, adecuado tanto para aplicaciones de detecci贸n de objetos como de segmentaci贸n.
  • Carparts-seg: Conjunto de datos creado espec铆ficamente para identificar piezas de veh铆culos, que satisface las necesidades de dise帽o, fabricaci贸n e investigaci贸n. Sirve tanto para tareas de detecci贸n de objetos como de segmentaci贸n.

Estimaci贸n de la pose

La estimaci贸n de la pose es una t茅cnica utilizada para determinar la pose del objeto respecto a la c谩mara o al sistema de coordenadas mundial.

  • COCO: Un conjunto de datos a gran escala con anotaciones de la pose humana dise帽ado para tareas de estimaci贸n de la pose.
  • COCO8-pose: Un conjunto de datos m谩s peque帽o para tareas de estimaci贸n de la pose, que contiene un subconjunto de 8 im谩genes COCO con anotaciones de la pose humana.
  • Tiger-pose: Un conjunto de datos compacto formado por 263 im谩genes centradas en tigres, anotadas con 12 puntos clave por tigre para tareas de estimaci贸n de la pose.

Clasificaci贸n

La clasificaci贸n de im谩genes es una tarea de visi贸n por ordenador que consiste en clasificar una imagen en una o varias clases o categor铆as predefinidas en funci贸n de su contenido visual.

  • Caltech 101: Un conjunto de datos que contiene im谩genes de 101 categor铆as de objetos para tareas de clasificaci贸n de im谩genes.
  • Caltech 256: Una versi贸n ampliada de Caltech 101 con 256 categor铆as de objetos e im谩genes m谩s desafiantes.
  • CIFAR-10: Un conjunto de datos de 60.000 im谩genes en color de 32x32 en 10 clases, con 6.000 im谩genes por clase.
  • CIFAR-100: Una versi贸n ampliada de CIFAR-10 con 100 categor铆as de objetos y 600 im谩genes por clase.
  • Moda-MNIST: Un conjunto de datos formado por 70.000 im谩genes en escala de grises de 10 categor铆as de moda para tareas de clasificaci贸n de im谩genes.
  • ImageNet: Un conjunto de datos a gran escala para la detecci贸n de objetos y la clasificaci贸n de im谩genes con m谩s de 14 millones de im谩genes y 20.000 categor铆as.
  • ImageNet-10: Un subconjunto m谩s peque帽o de ImageNet con 10 categor铆as para una experimentaci贸n y unas pruebas m谩s r谩pidas.
  • Imagenette: Un subconjunto m谩s peque帽o de ImageNet que contiene 10 clases f谩cilmente distinguibles para agilizar el entrenamiento y las pruebas.
  • Imagewoof: Un subconjunto m谩s desafiante de ImageNet que contiene 10 categor铆as de razas de perros para tareas de clasificaci贸n de im谩genes.
  • MNIST: Un conjunto de datos de 70.000 im谩genes en escala de grises de d铆gitos manuscritos para tareas de clasificaci贸n de im谩genes.

Cajas delimitadoras orientadas (OBB)

Las cajas delimitadoras orientadas (OBB, Oriented Bounding Boxes) son un m茅todo de visi贸n por ordenador para detectar objetos angulosos en im谩genes mediante cajas delimitadoras rotadas, que suele aplicarse a im谩genes a茅reas y de sat茅lite.

  • DOTA-v2: Un popular conjunto de datos de im谩genes a茅reas OBB con 1,7 millones de instancias y 11.268 im谩genes.

Seguimiento multiobjeto

El seguimiento multiobjeto es una t茅cnica de visi贸n por ordenador que consiste en detectar y seguir varios objetos a lo largo del tiempo en una secuencia de v铆deo.

  • Argoverse: Un conjunto de datos que contiene datos de seguimiento 3D y previsi贸n de movimiento de entornos urbanos con ricas anotaciones para tareas de seguimiento multiobjeto.
  • VisDrone: Un conjunto de datos que contiene datos de detecci贸n de objetos y seguimiento multiobjeto a partir de im谩genes capturadas por drones, con m谩s de 10.000 im谩genes y secuencias de v铆deo.

Aportar nuevos conjuntos de datos

Contribuir con un nuevo conjunto de datos implica varios pasos para garantizar que se alinea bien con la infraestructura existente. A continuaci贸n se indican los pasos necesarios:

Pasos para aportar un nuevo conjunto de datos

  1. Reunir im谩genes: Re煤ne las im谩genes que pertenecen al conjunto de datos. Podr铆an recopilarse de diversas fuentes, como bases de datos p煤blicas o tu propia colecci贸n.
  2. Anotar im谩genes: Anota estas im谩genes con cuadros delimitadores, segmentos o puntos clave, seg煤n la tarea.
  3. Exportar anotaciones: Convierte estas anotaciones en YOLO *.txt que admite Ultralytics .
  4. Organizar el conjunto de datos: Organiza tu conjunto de datos en la estructura de carpetas correcta. Deber铆as tener train/ y val/ directorios de nivel superior, y dentro de cada uno, un images/ y labels/ subdirectorio.

    dataset/
    鈹溾攢鈹 train/
    鈹   鈹溾攢鈹 images/
    鈹   鈹斺攢鈹 labels/
    鈹斺攢鈹 val/
        鈹溾攢鈹 images/
        鈹斺攢鈹 labels/
    
  5. Crea una data.yaml Archivo: En el directorio ra铆z de tu conjunto de datos, crea un archivo data.yaml que describe el conjunto de datos, las clases y otra informaci贸n necesaria.

  6. Optimizar im谩genes (Opcional): Si quieres reducir el tama帽o del conjunto de datos para un procesamiento m谩s eficiente, puedes optimizar las im谩genes utilizando el c贸digo que aparece a continuaci贸n. No es obligatorio, pero se recomienda para reducir el tama帽o del conjunto de datos y aumentar la velocidad de descarga.
  7. Comprimir conjunto de datos: Comprime toda la carpeta del conjunto de datos en un archivo zip.
  8. Documentaci贸n y relaciones p煤blicas: Crea una p谩gina de documentaci贸n que describa tu conjunto de datos y c贸mo encaja en el marco existente. Despu茅s, env铆a una Solicitud de Extracci贸n (PR). Consulta Ultralytics Directrices de contribuci贸n para obtener m谩s detalles sobre c贸mo enviar una PR.

C贸digo de ejemplo para optimizar y comprimir un conjunto de datos

Optimizar y comprimir un conjunto de datos

from pathlib import Path

from ultralytics.data.utils import compress_one_image
from ultralytics.utils.downloads import zip_directory

# Define dataset directory
path = Path("path/to/dataset")

# Optimize images in dataset (optional)
for f in path.rglob("*.jpg"):
    compress_one_image(f)

# Zip dataset into 'path/to/dataset.zip'
zip_directory(path)

Siguiendo estos pasos, puedes contribuir con un nuevo conjunto de datos que se integre bien en la estructura existente de Ultralytics.



Created 2023-11-12, Updated 2024-06-02
Authors: glenn-jocher (9), RizwanMunawar (2), Burhan-Q (1), Laughing-q (1), abirami-vina (1), AyushExel (2)

Comentarios