Ir al contenido

YOLOv5 vs YOLO26: Un Salto Generacional en la Detección de Objetos en Tiempo Real

La evolución de la visión por computadora se ha definido por el impulso continuo hacia modelos más rápidos, precisos y accesibles. Al comparar Ultralytics YOLOv5 con el vanguardista Ultralytics YOLO26, estamos ante un cambio de paradigma que cierra la brecha entre los sistemas heredados robustos y la vanguardia de la implementación de IA moderna.

Esta guía proporciona un desglose técnico exhaustivo de ambas arquitecturas, destacando sus métricas de rendimiento, diferencias estructurales y escenarios de despliegue ideales.

Descripciones generales del modelo

YOLOv5: El caballo de batalla de la industria

Lanzado en 2020, YOLOv5 revolucionó la accesibilidad de la detección de objetos. Al migrar la arquitectura de forma nativa al framework de PyTorch, proporcionó a los desarrolladores una experiencia "de cero a héroe" sin precedentes.

YOLOv5 estableció las bases del ecosistema Ultralytics, altamente mantenido. Introdujo técnicas agresivas de aumentación de datos, bucles de entrenamiento eficientes y rutas de exportación altamente optimizadas a formatos de borde como CoreML y ONNX. Su facilidad de uso y bajos requisitos de memoria durante el entrenamiento lo convirtieron en un elemento básico para startups e investigadores de todo el mundo.

Más información sobre YOLOv5

YOLO26: El Estándar de IA de Visión de Próxima Generación

Avanzando a enero de 2026, Ultralytics YOLO26 representa la cúspide de la IA de visión en tiempo real. Integra de forma nativa las lecciones aprendidas de generaciones intermedias como YOLOv8 y YOLO11, al tiempo que introduce avances masivos inspirados en el entrenamiento de Modelos de Lenguaje Grandes (LLM).

YOLO26 establece un nuevo referente en el equilibrio de rendimiento, ofreciendo una precisión de vanguardia y estando explícitamente diseñado para dominar los escenarios de computación en el borde.

Más información sobre YOLO26

Otros modelos de Ultralytics

Si está migrando una base de código antigua, también podría estar interesado en comparar YOLOv5 con YOLO11, el modelo de generación anterior que introdujo soporte inicial para diversas tareas como la Estimación de Pose y las Cajas Delimitadoras Orientadas (OBB).

Hitos arquitectónicos en YOLO26

Mientras que YOLOv5 se basa en cabezales de detección basados en anclas y funciones de pérdida estándar, YOLO26 revisa completamente la mecánica interna para eliminar los cuellos de botella en el despliegue.

  1. Diseño de extremo a extremo sin NMS: La diferencia más significativa es la arquitectura nativamente de extremo a extremo de YOLO26. A diferencia de YOLOv5, que requiere supresión no máxima (NMS) manual para filtrar cuadros delimitadores redundantes, YOLO26 elimina por completo este paso de postprocesamiento. Esto asegura una latencia de inferencia determinista y simplifica drásticamente la integración en C++ o hardware embebido.
  2. Eliminación de DFL: YOLO26 elimina la Distribution Focal Loss (DFL). Esta elección arquitectónica simplifica drásticamente la exportación del modelo y mejora la compatibilidad con dispositivos de borde de baja potencia y microcontroladores que a menudo tienen dificultades con operadores complejos.
  3. Optimizador MuSGD: Tomando como referencia Kimi K2 de Moonshot AI, YOLO26 utiliza el Optimizador MuSGD, un híbrido de SGD y Muon. Esto lleva la estabilidad y la rápida convergencia observadas en el entrenamiento de LLM a la visión por computadora, lo que resulta en un menor uso de memoria y ciclos de entrenamiento más rápidos en comparación con los modelos con gran cantidad de transformadores.
  4. ProgLoss + STAL: YOLO26 utiliza funciones sofisticadas de ProgLoss y STAL, mejorando en gran medida su capacidad para detectar objetos pequeños y densos, un desafío histórico para YOLOv5.

Comparación de rendimiento

Al comparar los modelos en el conjunto de datos COCO, YOLO26 muestra mejoras masivas en precisión (mAP) al tiempo que reduce simultáneamente el número de parámetros y las velocidades de inferencia en CPU.

Modelotamaño
(píxeles)
mAPval
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

Nota: El YOLO26 Nano (YOLO26n) logra un impresionante mAP de 40.9 en comparación con el mAP de 28.0 de YOLOv5n, todo ello mientras ofrece hasta un 43% más de velocidad de inferencia en CPU gracias a la eliminación de DFL y el cabezal sin NMS.

Versatilidad y Soporte de Tareas

YOLOv5 es principalmente reconocido por la detección de objetos. Aunque actualizaciones posteriores introdujeron la segmentación básica, YOLO26 fue construido desde cero para ser un motor unificado de múltiples tareas.

YOLO26 soporta inherentemente:

  • Segmentación de Instancias: Con prototipos multiescala específicos para la tarea y pérdida de segmentación semántica.
  • Estimación de Pose: Utilizando la Estimación de Log-Verosimilitud Residual (RLE) para una detección de puntos clave de alta precisión.
  • Cajas Delimitadoras Orientadas (OBB): Incluye una pérdida de ángulo especializada para resolver problemas de discontinuidad de límites, crítico para el análisis de imágenes satelitales.
  • Clasificación de Imágenes: Categorización estándar de imágenes completas.

Integración del ecosistema

Ambos modelos se benefician de la Plataforma Ultralytics, que proporciona anotación de datos fluida, ajuste automático de hiperparámetros y despliegue en la nube con un solo clic. Sin embargo, YOLO26 aprovecha al máximo las estructuras modernas de la API.

Ejemplos de Uso y Código

La API Python de Ultralytics hace que cambiar entre modelos sea increíblemente sencillo. Dado que ambos modelos comparten el mismo ecosistema bien mantenido, actualizar un pipeline YOLOv5 heredado a YOLO26 solo requiere cambiar el archivo de pesos.

Ejemplo de python

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Ejemplo de CLI

Puede desplegar YOLO26 directamente a través de la línea de comandos utilizando la integración de TensorRT para un rendimiento máximo de la GPU:

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

Casos de Uso Ideales

Cuándo elegir YOLO26

Para cualquier proyecto moderno de visión por computadora, YOLO26 es la recomendación indiscutible.

  • IA de Borde e IoT: Su inferencia en CPU un 43% más rápida y la eliminación de DFL lo hacen perfecto para el despliegue en una Raspberry Pi o dispositivos móviles.
  • Pipelines de Alta Velocidad: La arquitectura sin NMS garantiza una latencia estable y predecible, lo cual es crucial para la robótica autónoma y los sistemas de alarma de seguridad en tiempo real.
  • Escenarios complejos: Si su aplicación requiere seguimiento de objetos pequeños (p. ej., monitoreo de drones) u objetos giratorios (obb), las funciones de pérdida avanzadas de YOLO26 (ProgLoss + STAL) proporcionan una ventaja masiva en precisión.

Cuándo elegir YOLOv5

  • Sistemas Heredados: Si su entorno de producción tiene dependencias codificadas en la generación de anclajes específica de YOLOv5 o en la lógica de análisis NMS, la migración podría requerir un breve período de refactorización.
  • Bases Académicas Específicas: Los investigadores suelen utilizar YOLOv5 como una base clásica para demostrar la progresión histórica de las arquitecturas de detección de objetos.

Resumen

La transición de YOLOv5 a YOLO26 no es solo una actualización iterativa; es un salto fundamental en cómo se entrenan y despliegan los modelos de detección de objetos. Al aprovechar el optimizador MuSGD, eliminar el postprocesamiento complejo mediante un diseño sin NMS y acelerar masivamente las velocidades de CPU, Ultralytics YOLO26 ofrece un equilibrio inquebrantable entre velocidad y precisión.

Aunque YOLOv5 siempre será recordado como el modelo que democratizó la IA de visión, los desarrolladores que buscan construir aplicaciones robustas, listas para producción y a prueba de futuro deberían basarse con confianza en YOLO26.


Comentarios