Ir al contenido

YOLOv6.0 frente a RTDETRv2: Equilibrio entre velocidad industrial y precisión del transformador

La selección de la arquitectura óptima para la detección de objetos suele implicar un equilibrio entre la latencia de la inferencia y la precisión de la detección. Esta comparativa técnica examina dos enfoques distintos de este reto: YOLOv6.0, un modelo basado en CNN diseñado por Meituan para la velocidad industrial, y RTDETRv2, una arquitectura Vision Transformer (ViT) de Baidu diseñada para llevar la precisión de los transformadores a las aplicaciones en tiempo real.

YOLOv6.0

Autores: Chuyi Li, Lulu Li, Yifei Geng, Hongliang Jiang, Meng Cheng, Bo Zhang, Zaidan Ke, Xiaoming Xu y Xiangxiang Chu
Organización: Meituan
Fecha: 2023-01-13
Arxiv: YOLOv6 v3.0: A Full-Scale Reloading
GitHub: YOLOv6
Docs: DocumentaciónUltralytics YOLOv6

YOLOv6.0 representa una evolución significativa en el linaje de detectores de una sola etapa, especialmente diseñada para aplicaciones industriales en las que la eficiencia del hardware es primordial. Introduce una "recarga a escala completa" de la arquitectura, que incorpora estrategias avanzadas de fusión de funciones y entrenamiento para maximizar el rendimiento en las GPU.

Arquitectura y Características Clave

La arquitectura de YOLOv6.0 se centra en un diseño compatible con el hardware. Utiliza una eficiente columna vertebral de reparametrización (RepBackbone) que permite al modelo disponer de complejas capacidades de extracción de características durante el entrenamiento, a la vez que se contrae en una estructura racionalizada para la inferencia. Las principales innovaciones arquitectónicas son:

  • Concatenación bidireccional (BiC): Un módulo en el cuello que mejora la precisión de la fusión de características sin una gran penalización computacional.
  • Entrenamiento asistido por anclaje (AAT): Estrategia que combina las ventajas de los paradigmas basado en anclas y sin anclas durante la fase de entrenamiento para estabilizar la convergencia.
  • Autodestilación: El marco emplea un bucle de entrenamiento maestro-alumno en el que el modelo aprende de sus propias predicciones, mejorando la precisión sin aumentar el tamaño del modelo.

Fortalezas

  • Eficiencia industrial: El modelo está explícitamente optimizado para TensorRT y ofrece una latencia excepcionalmente baja en las GPU NVIDIA .
  • Baja latencia en el borde: con variantes "Lite" específicas, funciona bien en dispositivos CPU móvil, lo que lo hace adecuado para escáneres industriales portátiles.
  • Soporte de cuantificación: Cuenta con un sólido soporte para Quantization Aware Training (QAT), lo que evita una pérdida significativa de precisión al pasar a la precisión INT8.

Debilidades

  • Limitación de tareas: YOLOv6 está diseñado principalmente para la detección de cajas delimitadoras. Carece de soporte nativo para tareas complejas como la estimación de la pose o la detección de cajas delimitadoras orientadas (OBB) que se encuentran en marcos más versátiles.
  • Complejidad del entrenamiento: La dependencia de la autodestilación y de pasos de reparametrización especializados puede hacer que el proceso de formación sea más frágil y difícil de personalizar en comparación con los modelos YOLO estándar.

Casos de Uso Ideales

  • Fabricación a alta velocidad: Detección de defectos en cintas transportadoras de alta velocidad, donde la latencia de milisegundos es crítica.
  • Robótica integrada: Sistemas de navegación en plataformas como NVIDIA Jetson, donde los recursos de cálculo están estrictamente presupuestados.

Más información sobre YOLOv6.0

RTDETRv2

Autores: Wenyu Lv, Yian Zhao, Qinyao Chang, Kui Huang, Guanzhong Wang y Yi Liu
Organización: Baidu
Fecha: 2023-04-17 (Original), 2024-07-24 (v2)
Arxiv: RT-DETRv2: Baseline Improved with Bag-of-Freebies
GitHub: RT-DETR
Docs: Documentación deUltralytics RT-DETR

RTDETRv2 (Real-Time Detection Transformer v2) desafía el dominio de las CNN demostrando que los transformadores pueden alcanzar velocidades en tiempo real. Se basa en el paradigma DETR (Detection Transformer), pero aborda la lenta convergencia y los elevados costes computacionales que suelen asociarse a los mecanismos de atención.

Arquitectura y Características Clave

RTDETRv2 emplea un codificador híbrido que procesa eficazmente características multiescala. A diferencia de los transformadores tradicionales, que procesan todos los parches de imagen por igual, RTDETRv2 centra su atención en las áreas relevantes al principio del proceso.

  • Codificador híbrido eficiente: Desacopla la interacción intraescala y la fusión entre escalas para reducir la carga computacional.
  • Selección de consultasIoU: Selecciona consultas de objetos iniciales de alta calidad a partir de la salida del codificador, lo que mejora la inicialización del descodificador y acelera la convergencia.
  • Diseño sin anclajes: Elimina la necesidad de postprocesamiento de Supresión No MáximaNMS), simplificando el pipeline de despliegue y reduciendo la variabilidad de latencia en escenas concurridas.

Fortalezas

  • Conciencia global del contexto: El mecanismo de autoatención permite al modelo "ver" toda la imagen a la vez, lo que mejora la detección de objetos ocluidos en comparación con las CNN que se basan en campos receptivos locales.
  • Techo de alta precisión: Consigue sistemáticamente mAP en el conjunto de datosCOCO para una escala de modelo determinada en comparación con muchas CNN homólogas.
  • NMS: La ausencia de NMS hace que el tiempo de inferencia sea más determinista, lo que supone una ventaja significativa para los sistemas en tiempo real.

Debilidades

  • Intensidad de memoria: Los transformadores requieren significativamente más VRAM durante el entrenamiento y la inferencia debido a la complejidad cuadrática de las matrices de atención (aunque RTDETR optimiza esto).
  • Hambre de datos: Los Transformadores de Visión generalmente requieren conjuntos de datos más grandes y programas de entrenamiento más largos para converger completamente en comparación con CNNs como YOLOv6.

Casos de Uso Ideales

  • Escenas de tráfico complejas: Detección de peatones y vehículos en entornos densos y caóticos en los que la oclusión es habitual.
  • Conducción autónoma: Aplicaciones que requieren una percepción de alta fiabilidad en las que el coste de una detección fallida compensa el coste de unos requisitos de hardware ligeramente superiores.

Más información sobre RTDETRv2

Comparación de rendimiento

La tabla siguiente contrasta el rendimiento de YOLOv6.0 y RTDETRv2. Mientras que RTDETRv2 supera a YOLOv6.0 en precisión, YOLOv6.0 mantiene la ventaja en velocidad de inferencia bruta, sobre todo en la escala "Nano".

Modelotamaño
(píxeles)
mAPval
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLOv6.0n64037.5-1.174.711.4
YOLOv6.0s64045.0-2.6618.545.3
YOLOv6,0m64050.0-5.2834.985.8
YOLOv6.0l64052.8-8.9559.6150.7
RTDETRv2-s64048.1-5.032060
RTDETRv2-m64051.9-7.5136100
RTDETRv2-l64053.4-9.7642136
RTDETRv2-x64054.3-15.0376259

Análisis

  • Velocidad frente a precisión: El YOLOv6-3.0n es increíblemente ligero (1,17 ms de inferencia), lo que lo convierte en el rey indiscutible para hardware extremadamente limitado. Sin embargo, si la precisión es la prioridad, RTDETRv2-s ofrece un mAP significativamente mayor (48,1) que YOLOv6-3.0s (45,0), aunque con casi el doble de tiempo de inferencia (5,03 ms frente a 2,66 ms).
  • Comportamiento a escala: A medida que aumenta el tamaño del modelo, la diferencia se reduce. RTDETRv2-l (53,4 mAP) supera a YOLOv6-3.0l (52,8 mAP) a pesar de tener menos parámetros (42M frente a 59,6M), lo que demuestra la eficiencia de parámetros de la arquitectura de transformadores, aunque los FLOPs siguen siendo comparables.
  • Implicaciones para el hardware: La ventaja de YOLOv6 reside en su estructura de CNN pura, que se adapta muy directamente a los aceleradores de hardware. RTDETRv2 requiere un hardware capaz de gestionar eficazmente multiplicaciones de matrices y operaciones de atención para alcanzar su velocidad teórica.

Consideraciones sobre la implantación

Al desplegar en dispositivos de borde, recuerde que los "Parámetros" no siempre se correlacionan perfectamente con la velocidad. Aunque RTDETRv2 puede tener menos parámetros en algunas configuraciones, sus patrones de acceso a memoria (atención) pueden ser más lentos en hardware antiguo en comparación con las convoluciones altamente optimizadas de YOLOv6.

Metodologías de Entrenamiento

El panorama formativo de estos dos modelos difiere considerablemente, lo que repercute en los recursos necesarios para su desarrollo.

YOLOv6.0 sigue las prácticas de aprendizaje profundo habituales para las CNN. Se beneficia de programas de entrenamiento más cortos (normalmente 300-400 épocas) y de un menor consumo de memoria de GPU . Técnicas como la autodestilación se gestionan internamente, pero añaden una capa de complejidad al cálculo de la función de pérdida.

RTDETRv2, al estar basado en transformadores, generalmente exige más CUDA durante el entrenamiento. La complejidad cuadrática del mecanismo de atención con respecto al tamaño de la imagen obliga a reducir el tamaño de los lotes o a utilizar GPU más potentes. Además, los transformadores suelen beneficiarse de horizontes de entrenamiento más largos para aprender completamente las relaciones espaciales sin sesgos inductivos.

La ventaja Ultralytics

Aunque tanto YOLOv6 como RTDETR ofrecen funciones atractivas para nichos específicos, Ultralytics YOLO11 proporciona una solución unificada que equilibra lo mejor de ambos mundos. Integra la eficiencia de las CNN con modernos refinamientos arquitectónicos que rivalizan con la precisión de los transformadores, todo ello dentro de un ecosistema diseñado para la productividad de los desarrolladores.

¿Por qué elegir los modelos de Ultralytics ?

  • Facilidad de uso: Ultralytics proporciona una API Pythonic que abstrae las complejidades de la formación y el despliegue. Puede entrenar un modelo de última generación en tres líneas de código.
  • Equilibrio de rendimiento: YOLO11 está diseñado para ofrecer un equilibrio óptimo. Proporciona velocidades de inferencia en tiempo real comparables a YOLOv6 , al tiempo que alcanza niveles de precisión que desafían a RTDETR, sin la enorme sobrecarga de memoria de los transformadores.
  • Versatilidad: A diferencia de YOLOv6 (solo detección), los modelos de Ultralytics admiten de forma nativa la segmentación de instancias, la estimación de poses, la clasificación y la detección de cajas delimitadoras orientadas (OBB ).
  • Ecosistema bien mantenido: Con actualizaciones frecuentes, una amplia documentación y el apoyo de la comunidad, nunca te quedarás solo depurando.
  • Eficacia de la formación: Los modelos Ultralytics son famosos por sus eficientes canales de formación, que permiten una rápida iteración incluso en hardware modesto.
from ultralytics import YOLO

# Load the latest YOLO11 model
model = YOLO("yolo11n.pt")

# Train on COCO8 dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with a single command
results = model("path/to/image.jpg")

Más información sobre YOLO11

Conclusión

Tanto YOLOv6.0 como RTDETRv2 son logros impresionantes en visión por ordenador. YOLOv6.0 es la opción más pragmática para procesos estrictamente industriales en los que el hardware es fijo y la velocidad es la única métrica que importa. RTDETRv2 es una opción excelente para la investigación y las aplicaciones de gama alta en las que la precisión en escenas complejas es fundamental y los recursos de hardware son abundantes.

Sin embargo, para la gran mayoría de las aplicaciones del mundo real, Ultralytics YOLO11 sigue siendo la mejor opción. Ofrece un "punto dulce" de rendimiento, versatilidad y facilidad de uso que acelera el viaje del concepto a la producción. Tanto si se trata de un investigador que necesita experimentos rápidos como de un ingeniero que realiza despliegues en miles de dispositivos periféricos, el ecosistema de Ultralytics proporciona las herramientas necesarias para garantizar el éxito.

Explorar Otros Modelos

Si le interesan más comparaciones, explore estos recursos en la documentación Ultralytics :


Comentarios