YOLO26 vs YOLO11: Un Salto Generacional en IA de Visión
Al construir sistemas de visión por computadora de vanguardia, seleccionar el modelo adecuado es fundamental para equilibrar la precisión, la latencia y la eficiencia de los recursos. En el panorama de la inteligencia artificial en rápida evolución, Ultralytics continúa expandiendo los límites de lo posible. Esta comparación técnica detallada explora la transición del exitoso YOLO11 al revolucionario nuevo YOLO26, proporcionando a ingenieros e investigadores de IA los conocimientos necesarios para tomar decisiones arquitectónicas informadas.
Linaje y metadatos del modelo
Ambos modelos fueron desarrollados por Ultralytics, pero representan diferentes paradigmas en la cronología de la detección de objetos y los modelos de visión multitarea.
Detalles de YOLO26:
- Autores: Glenn Jocher y Jing Qiu
- Organización:Ultralytics
- Fecha: 2026-01-14
- GitHub:Repositorio Ultralytics
- Documentación:Documentación oficial de YOLO26
Detalles de YOLO11:
- Autores: Glenn Jocher y Jing Qiu
- Organización:Ultralytics
- Fecha: 2024-09-27
- GitHub:Repositorio Ultralytics
- Documentación:Documentación oficial de YOLO11
Otras arquitecturas
Aunque YOLO26 es nuestro modelo en tiempo real más avanzado, los usuarios que trabajan con hardware altamente especializado o grandes capacidades de memoria también podrían explorar arquitecturas basadas en transformadores como RT-DETR o el pionero NMS-free, YOLOv10.
Diferencias arquitectónicas e innovaciones
El salto de YOLO11 a YOLO26 implica cambios fundamentales tanto en la arquitectura del modelo como en el régimen de entrenamiento subyacente. Mientras que YOLO11 estableció una base robusta para la detección de objetos y el aprendizaje multi-tarea, YOLO26 revisa completamente el pipeline de despliegue para la computación edge.
Diseño de extremo a extremo sin NMS
Una de las actualizaciones más significativas en YOLO26 es su arquitectura nativamente de extremo a extremo. A diferencia de YOLO11, que se basa en el post-procesamiento de Supresión No Máxima (NMS) para filtrar cajas delimitadoras superpuestas, YOLO26 elimina este paso por completo. Este concepto, pionero en YOLOv10, reduce drásticamente la variabilidad de la latencia y simplifica la lógica de despliegue en diversos dispositivos de borde.
Eliminación de DFL para Eficiencia en el Borde
YOLO11 utiliza la función de pérdida focal de distribución (DFL) para refinar las estimaciones de cuadros delimitadores. Sin embargo, DFL se basa en operaciones softmax complejas que a menudo son poco compatibles con los aceleradores de borde de baja potencia. YOLO26 elimina con éxito DFL sin sacrificar la precisión. Esta simplificación arquitectónica resulta en una compatibilidad enormemente mejorada con los sistemas embebidos y permite a YOLO26 lograr una inferencia de CPU hasta un 43% más rápida en comparación con su predecesor.
El Optimizador MuSGD
La estabilidad y la velocidad del entrenamiento son primordiales. YOLO26 introduce el Optimizador MuSGD, un híbrido de Descenso de Gradiente Estocástico (SGD) y Muon, fuertemente inspirado en las innovaciones de entrenamiento de LLM de Kimi K2 de Moonshot AI. Este optimizador aporta la estabilidad del entrenamiento de modelos de lenguaje a la visión por computadora, asegurando una convergencia más rápida y reduciendo el consumo de memoria durante el entrenamiento en comparación con alternativas de transformadores pesados.
ProgLoss y STAL
Para investigadores que trabajan con imágenes aéreas o aplicaciones de drones, detect características diminutas es un desafío histórico. YOLO26 introduce ProgLoss combinado con STAL (Scale-Targeted Attention Loss), ofreciendo mejoras notables en el reconocimiento de objetos pequeños sobre YOLO11.
Comparación de rendimiento y métricas
Al comparar los modelos directamente, YOLO26 demuestra una clara superioridad en precisión y eficiencia en dispositivos edge, manteniendo al mismo tiempo los requisitos de memoria increíblemente bajos característicos del ecosistema Ultralytics.
| Modelo | tamaño (píxeles) | mAPval 50-95 | Velocidad CPU ONNX (ms) | Velocidad T4 TensorRT10 (ms) | parámetros (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
Nota: El modelo YOLO26 nano (YOLO26n) muestra una mejora de aproximadamente el 31% en la velocidad de CPU en comparación con YOLO11n (38.9ms vs 56.1ms), destacando su filosofía de diseño priorizando el edge.
Versatilidad en Tareas de Visión Artificial
Ambos modelos se benefician del ecosistema Ultralytics, altamente mantenido, ofreciendo una facilidad de uso sin igual a través de una API Python unificada. No son solo detectores de objetos; son potencias multitarea. Sin embargo, YOLO26 incorpora varios avances específicos para cada tarea:
- Segmentación de Instancias: YOLO26 utiliza una pérdida de segmentación semántica refinada y prototipado multiescala, generando límites de máscara más nítidos que YOLO11. Obtenga más información sobre los flujos de trabajo de segmentación.
- Estimación de Pose: Al integrar la Estimación de Log-Verosimilitud Residual (RLE), YOLO26 mejora drásticamente la precisión de los puntos clave en poses humanas complejas. Descubra las capacidades de estimación de pose.
- Cajas Delimitadoras Orientadas (OBB): Una función de pérdida de ángulo especializada resuelve problemas históricos de discontinuidad de límites, haciendo que YOLO26 sea excepcionalmente fiable para detect objetos rotados en transmisiones satelitales. Lea sobre las tareas obb.
- Clasificación de Imágenes: Ambos modelos manejan la clasificación de alta velocidad de manera eficiente, con YOLO26 ofreciendo mejoras marginales en la precisión top-1 en ImageNet.
Ejemplo de Código de Entrenamiento e Inferencia
Ultralytics es reconocido por su experiencia de desarrollador. Entrenar un modelo SOTA o ejecutar un script de inferencia requiere solo unas pocas líneas de código, minimizando el código repetitivo y maximizando la productividad. Además, el entrenamiento de modelos YOLO requiere significativamente menos memoria CUDA que las grandes redes de transformadores.
from ultralytics import YOLO
# Load the cutting-edge YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset efficiently
# The MuSGD optimizer is automatically enabled for YOLO26
train_results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device="0", # Utilize GPU for accelerated training
)
# Perform NMS-free inference directly on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Display the clean, instant predictions
results[0].show()
Casos de Uso y Estrategias de Despliegue Ideales
La elección entre YOLO26 y YOLO11 depende enteramente de las limitaciones de su entorno de producción.
¿Cuándo desplegar YOLO26?
YOLO26 es la elección definitiva para proyectos modernos y nuevos. Está diseñado específicamente para:
- Computación de Borde e IoT: Su asombroso rendimiento de CPU y la eliminación de DFL lo convierten en el rey de dispositivos como Raspberry Pi, NPUs Coral y procesadores móviles.
- Análisis de Drones y Aéreo: La integración de ProgLoss + STAL lo hace excepcionalmente capaz de rastrear objetos diminutos y de rápido movimiento en paisajes extensos.
- Aplicaciones Críticas en Latencia: En robótica autónoma o control de calidad de fabricación, el diseño sin NMS garantiza una latencia determinista sin picos inesperados de postprocesamiento.
¿Cuándo mantener YOLO11?
Aunque YOLO26 es superior, YOLO11 sigue siendo un modelo increíblemente capaz. Podrías mantenerte con YOLO11 si:
- Pipelines Heredadas: Su infraestructura de despliegue C++ existente está fuertemente acoplada a las salidas específicas basadas en anclajes y la lógica NMS de arquitecturas más antiguas.
- Bases Académicas: Está publicando una investigación y necesita un estándar de 2024 altamente reconocido para comparar sus algoritmos novedosos.
El poder del Ecosistema Ultralytics
Independientemente de si implementa YOLO11 o YOLO26, utilizar los modelos de Ultralytics significa acceder a un ecosistema bien mantenido con actualizaciones frecuentes y un amplio soporte de la comunidad.
Para equipos empresariales, la Plataforma Ultralytics proporciona una solución de extremo a extremo para la anotación de datos, el entrenamiento de modelos y el despliegue en la nube sin interrupciones. Desde la exportación de sus pesos entrenados a CoreML o TensorRT, hasta la configuración de un ajuste avanzado de hiperparámetros, las herramientas proporcionadas aseguran que su ciclo de vida de IA sea lo más optimizado posible.