Ultralytics YOLO26
Próximamente ⚠️
🚧 Los modelos YOLO26 aún están en desarrollo y no se han publicado. Los números de rendimiento que se muestran aquí son solo avances. Las descargas y los lanzamientos finales seguirán pronto; manténgase actualizado a través de YOLO Vision 2025.
Visión general
Ultralytics YOLO26 es la última evolución en la serie YOLO de detectores de objetos en tiempo real, diseñado desde cero para dispositivos de borde y de bajo consumo. Introduce un diseño optimizado que elimina la complejidad innecesaria al tiempo que integra innovaciones específicas para ofrecer una implementación más rápida, ligera y accesible.
La arquitectura de YOLO26 se guía por tres principios fundamentales:
- Simplicidad: YOLO26 es un modelo nativo de extremo a extremo, que produce predicciones directamente sin necesidad de supresión no máxima (NMS). Al eliminar este paso de post-procesamiento, la inferencia se vuelve más rápida, ligera y fácil de implementar en sistemas del mundo real. Este enfoque innovador fue iniciado por primera vez en YOLOv10 por Ao Wang en la Universidad de Tsinghua y ha sido perfeccionado en YOLO26.
- Eficiencia de la Implementación: El diseño de extremo a extremo elimina una etapa completa del pipeline, lo que simplifica drásticamente la integración, reduce la latencia y hace que la implementación sea más robusta en diversos entornos.
- Innovación en formación: YOLO26 introduce el optimizador MuSGD, un híbrido de SGD y Muon, inspirado en los avances Kimi K2 de Moonshot AI en el entrenamiento LLM. Este optimizador aporta una mayor estabilidad y una convergencia más rápida, transfiriendo los avances en optimización de los modelos lingüísticos a la visión por ordenador.
En conjunto, estas innovaciones ofrecen una familia de modelos que logra una mayor precisión en objetos pequeños, proporciona una implementación perfecta y se ejecuta hasta un 43% más rápido en las CPU, lo que convierte a YOLO26 en uno de los modelos YOLO más prácticos e implementables hasta la fecha para entornos con recursos limitados.

Características clave
Eliminación de DFL
El módulo Distribution Focal Loss (DFL), aunque eficaz, a menudo complicaba la exportación y limitaba la compatibilidad del hardware. YOLO26 elimina DFL por completo, simplificando la inferencia y ampliando el soporte para dispositivos edge y de baja potencia.Inferencia integral sin NMS
A diferencia de los detectores tradicionales que se basan en NMS como un paso de post-procesamiento separado, YOLO26 es nativamente integral. Las predicciones se generan directamente, lo que reduce la latencia y hace que la integración en los sistemas de producción sea más rápida, ligera y fiable.ProgLoss + STAL
Las funciones de pérdida mejoradas aumentan la precisión de la detección, con mejoras notables en el reconocimiento de objetos pequeños, un requisito fundamental para IoT, robótica, imágenes aéreas y otras aplicaciones en el borde.Optimizador MuSGD
Un nuevo optimizador híbrido que combina SGD con Muon. Inspirado en Kimi K2 de Moonshot AI, MuSGD introduce métodos de optimización avanzados del entrenamiento de LLM en la visión artificial, permitiendo un entrenamiento más estable y una convergencia más rápida.Inferencia de CPU hasta un 43% más rápida
Específicamente optimizado para la computación en el borde, YOLO26 ofrece una inferencia de CPU significativamente más rápida, lo que garantiza un rendimiento en tiempo real en dispositivos sin GPU.
Tareas y modos admitidos
YOLO26 está diseñado como una familia de modelos multi-tarea, extendiendo la versatilidad de YOLO a través de diversos desafíos de visión artificial:
| Modelo | Tarea | Inferencia | Validación | Entrenamiento | Exportar |
|---|---|---|---|---|---|
| YOLO26 | Detección | ✅ | ✅ | ✅ | ✅ |
| YOLO26-seg | Segmentación de instancias | ✅ | ✅ | ✅ | ✅ |
| YOLO26-pose | Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
| YOLO26-obb | Detección Orientada | ✅ | ✅ | ✅ | ✅ |
| YOLO26-cls | Clasificación | ✅ | ✅ | ✅ | ✅ |
Este marco unificado garantiza que YOLO26 sea aplicable a la detección en tiempo real, la segmentación, la clasificación, la estimación de la pose y la detección de objetos orientados, todo ello con soporte para el entrenamiento, la validación, la inferencia y la exportación.
Métricas de rendimiento
Vista previa del rendimiento
Los siguientes benchmarks son vistas previas anticipadas. Los números finales y los pesos descargables se publicarán una vez que se complete el entrenamiento.
Entrenado en COCO con 80 clases pre-entrenadas. Consulta la Documentación de Detección para su uso una vez que se publiquen los modelos.
| Modelo | tamaño (píxeles) | mAPval 50-95(e2e) | mAPval 50-95 | Velocidad CPU ONNX (ms) | Velocidad T4 TensorRT10 (ms) | parámetros (M) | FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO26n | 640 | 39.8 | 40.3 | 38.90 ± 0.7 | 1.7 ± 0.0 | 2.4 | 5.4 |
| YOLO26s | 640 | 47.2 | 47.6 | 87.16 ± 0.9 | 2.7 ± 0.0 | 9.5 | 20.7 |
| YOLO26m | 640 | 51.5 | 51.7 | 220.0 ± 1.4 | 4.9 ± 0.1 | 20.4 | 68.2 |
| YOLO26l | 640 | 53.0* | 53.4* | 286.17 ± 2.0* | 6.5 ± 0.2* | 24.8 | 86.4 |
| YOLO26x | 640 | - | - | - | - | - | - |
*Las métricas para YOLO26l y YOLO26x están en progreso. Los benchmarks finales se agregarán aquí.
Métricas de rendimiento próximamente.
Métricas de rendimiento próximamente.
Métricas de rendimiento próximamente.
Métricas de rendimiento próximamente.
Citas y agradecimientos
Publicación de Ultralytics YOLO26
Ultralytics no ha publicado un artículo de investigación formal para YOLO26 debido a la naturaleza rápidamente cambiante de los modelos. En cambio, nos centramos en ofrecer modelos de vanguardia y hacerlos fáciles de usar. Para obtener las últimas actualizaciones sobre las características, arquitecturas y el uso de YOLO, visite nuestro repositorio de GitHub y nuestra documentación.
Si utiliza YOLO26 u otro software de Ultralytics en su trabajo, por favor, cítelo como:
@software{yolo26_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO26},
version = {26.0.0},
year = {2025},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI pendiente. YOLO26 está disponible bajo licencias AGPL-3.0 y Enterprise.
Preguntas frecuentes
¿Cuáles son las mejoras clave en YOLO26 en comparación con YOLO11?
- Eliminación de DFL: Simplifica la exportación y amplía la compatibilidad con el edge
- Inferencia integral sin NMS: Elimina NMS para una implementación más rápida y sencilla
- ProgLoss + STAL: Aumenta la precisión, especialmente en objetos pequeños
- Optimizador MuSGD: Combina SGD y Muon (inspirado en Kimi K2 de Moonshot) para un entrenamiento más estable y eficiente
- Inferencia de CPU hasta un 43% más rápida: Importantes ganancias de rendimiento para dispositivos solo con CPU
¿Qué tareas admitirá YOLO26?
YOLO26 está diseñado como una familia de modelos unificada, proporcionando soporte integral para múltiples tareas de visión artificial:
- Detección de objetos
- Segmentación de instancias
- Clasificación de imágenes
- Estimación de pose
- Detección de Objetos Orientados (OBB)
Cada variante de tamaño (n, s, m, l, x) tiene previsto admitir todas las tareas en el momento del lanzamiento.
¿Por qué está YOLO26 optimizado para la implementación en el edge?
YOLO26 ofrece un rendimiento de vanguardia en el edge con:
- Inferencia en CPU hasta un 43% más rápida
- Tamaño de modelo y huella de memoria reducidos
- Arquitectura simplificada para compatibilidad (sin DFL, sin NMS)
- Formatos de exportación flexibles que incluyen TensorRT, ONNX, CoreML, TFLite y OpenVINO
¿Cuándo estarán disponibles los modelos YOLO26?
Los modelos YOLO26 aún están en entrenamiento y no son de código abierto. Aquí se muestran avances del rendimiento, con descargas y lanzamientos oficiales planeados en un futuro próximo. Consulte YOLO Vision 2025 para las charlas de YOLO26.