Saltar al contenido

Roboflow 100 Conjunto de datos

Roboflow 100, desarrollado por Roboflow y patrocinado por Intel, es una innovadora prueba de detección de objetos. Incluye 100 conjuntos de datos diversos extraídos de más de 90.000 conjuntos de datos públicos. Esta prueba está diseñada para comprobar la adaptabilidad de los modelos a diversos dominios, como la sanidad, las imágenes aéreas y los videojuegos.

Roboflow 100 Resumen

Características principales

  • Incluye 100 conjuntos de datos de siete dominios: Aéreo, Videojuegos, Microscópico, Subacuático, Documentos, Electromagnético y Mundo Real.
  • La referencia comprende 224.714 imágenes de 805 clases, gracias a más de 11.170 horas de esfuerzos de etiquetado.
  • Todas las imágenes se redimensionan a 640x640 píxeles, centrándose en eliminar la ambigüedad de clase y filtrar las clases infrarrepresentadas.
  • Las anotaciones incluyen cuadros delimitadores de los objetos, lo que lo hace adecuado para entrenar y evaluar modelos de detección de objetos.

Estructura del conjunto de datos

El conjunto de datos Roboflow 100 está organizado en siete categorías, cada una con un conjunto distinto de conjuntos de datos, imágenes y clases:

  • Aéreas: Consta de 7 conjuntos de datos con un total de 9.683 imágenes, que abarcan 24 clases distintas.
  • Videojuegos: Incluye 7 conjuntos de datos, con 11.579 imágenes de 88 clases.
  • Microscópico: Comprende 11 conjuntos de datos con 13.378 imágenes, que abarcan 28 clases.
  • Bajo el agua: Contiene 5 conjuntos de datos, que abarcan 18.003 imágenes en 39 clases.
  • Documentos: Consta de 8 conjuntos de datos con 24.813 imágenes, divididas en 90 clases.
  • Electromagnética: Compuesto por 12 conjuntos de datos, con un total de 36.381 imágenes en 41 clases.
  • Mundo Real: La categoría más grande, con 50 conjuntos de datos que ofrecen 110.615 imágenes de 495 clases.

Esta estructura permite un campo de pruebas diverso y extenso para los modelos de detección de objetos, que refleja los escenarios de aplicación del mundo real.

Evaluación comparativa

La evaluación comparativa de conjuntos de datos evalúa el rendimiento del modelo de aprendizaje automático en conjuntos de datos específicos utilizando métricas estandarizadas como la exactitud, la precisión media y la puntuación F1.

Evaluación comparativa

Los resultados de la evaluación comparativa se almacenarán en "ultralytics-benchmarks/evaluation.txt"

Ejemplo de evaluación comparativa

from pathlib import Path
import shutil
import os
from ultralytics.utils.benchmarks import RF100Benchmark

# Initialize RF100Benchmark and set API key
benchmark = RF100Benchmark()
benchmark.set_key(api_key="YOUR_ROBOFLOW_API_KEY")

# Parse dataset and define file paths
names, cfg_yamls = benchmark.parse_dataset()
val_log_file = Path("ultralytics-benchmarks") / "validation.txt"
eval_log_file = Path("ultralytics-benchmarks") / "evaluation.txt"

# Run benchmarks on each dataset in RF100
for ind, path in enumerate(cfg_yamls):
    path = Path(path)
    if path.exists():
        # Fix YAML file and run training
        benchmark.fix_yaml(str(path))
        os.system(f'yolo detect train data={path} model=yolov8s.pt epochs=1 batch=16')

        # Run validation and evaluate
        os.system(f'yolo detect val data={path} model=runs/detect/train/weights/best.pt > {val_log_file} 2>&1')
        benchmark.evaluate(str(path), str(val_log_file), str(eval_log_file), ind)

        # Remove the 'runs' directory
        runs_dir = Path.cwd() / "runs"
        shutil.rmtree(runs_dir)
    else:
        print("YAML file path does not exist")
        continue

print("RF100 Benchmarking completed!")

Aplicaciones

Roboflow 100 tiene un valor incalculable para diversas aplicaciones relacionadas con la visión por ordenador y el aprendizaje profundo. Los investigadores e ingenieros pueden utilizar este punto de referencia para:

  • Evaluar el rendimiento de los modelos de detección de objetos en un contexto multidominio.
  • Probar la adaptabilidad de los modelos a escenarios del mundo real más allá del reconocimiento común de objetos.
  • Evalúa las capacidades de los modelos de detección de objetos en diversos conjuntos de datos, como los de la sanidad, las imágenes aéreas y los videojuegos.

Para más ideas e inspiración sobre aplicaciones en el mundo real, no dejes de consultar nuestras guías sobre proyectos en el mundo real.

Utilización

El conjunto de datos Roboflow 100 está disponible tanto en GitHub como en Roboflow Universe.

Puedes acceder a él directamente desde el repositorio GitHub de Roboflow 100. Además, en Roboflow Universe, tienes la flexibilidad de descargar conjuntos de datos individuales simplemente haciendo clic en el botón de exportación dentro de cada conjunto de datos.

Muestra de datos y anotaciones

Roboflow 100 consta de conjuntos de datos con diversas imágenes y vídeos capturados desde distintos ángulos y dominios. He aquí algunos ejemplos de imágenes anotadas en el banco de pruebas RF100.

Muestra de datos y anotaciones

La diversidad en el punto de referencia Roboflow 100 que puede verse más arriba es un avance significativo respecto a los puntos de referencia tradicionales, que a menudo se centran en optimizar una única métrica dentro de un dominio limitado.

Citas y agradecimientos

Si utilizas el conjunto de datos Roboflow 100 en tu trabajo de investigación o desarrollo, cita el siguiente documento:

@misc{2211.13523,
    Author = {Floriana Ciaglia and Francesco Saverio Zuppichini and Paul Guerrie and Mark McQuade and Jacob Solawetz},
    Title = {Roboflow 100: A Rich, Multi-Domain Object Detection Benchmark},
    Eprint = {arXiv:2211.13523},
}

Nuestro agradecimiento al equipo de Roboflow y a todos los colaboradores por su duro trabajo en la creación y mantenimiento del conjunto de datos Roboflow 100.

Si te interesa explorar más conjuntos de datos para mejorar tus proyectos de detección de objetos y aprendizaje automático, no dudes en visitar nuestra completa colección de conjuntos de datos.



Creado el 2024-02-07, Actualizado el 2024-04-29
Autores: RizwanMunawar (2), glenn-jocher (1), abirami-vina (1)

Comentarios