Ultralytics YOLO26
Sólo vista previa ⚠️
🚧 Los modelos YOLO26 aún están en fase de desarrollo y no han salido al mercado. Los números de rendimiento que se muestran aquí son sólo vistas previas.
Las descargas y versiones finales se realizarán en breve. Mantente informado a través de YOLO Vision 2025.
Visión general
Ultralytics YOLO26 es la última evolución de la serie YOLO de detectores de objetos en tiempo real, diseñada desde cero para dispositivos periféricos y de bajo consumo. Presenta un diseño optimizado que elimina la complejidad innecesaria al tiempo que integra innovaciones específicas para ofrecer un despliegue más rápido, ligero y accesible.
La arquitectura de YOLO26 se rige por tres principios básicos:
- Simplicidad: YOLO26 es un modelo nativo de extremo a extremo, que produce predicciones directamente sin necesidad de supresión no máxima (NMS). Al eliminar este paso de posprocesamiento, la inferencia se vuelve más rápida, ligera y fácil de implementar en sistemas del mundo real. Este enfoque innovador fue introducido por primera vez en YOLOv10 por Ao Wang, de la Universidad de Tsinghua, y se ha perfeccionado en YOLO26.
- Eficiencia de implantación: El diseño de extremo a extremo elimina toda una etapa del proceso, lo que simplifica drásticamente la integración, reduce la latencia y refuerza la implantación en distintos entornos.
- Innovación en formación: YOLO26 presenta el optimizador MuSGD, un híbrido de SGD y Muon, inspirado en los avances Kimi K2 de Moonshot AI en el entrenamiento LLM. Este optimizador aporta una mayor estabilidad y una convergencia más rápida, transfiriendo los avances en optimización de los modelos lingüísticos a la visión por ordenador.
Juntas, estas innovaciones ofrecen una familia de modelos que logra una mayor precisión en objetos pequeños, proporciona un despliegue sin fisuras y se ejecuta hasta un 43% más rápido en CPU, lo que convierte a YOLO26 en uno de los modelos YOLO más prácticos y desplegables hasta la fecha para entornos con recursos limitados.
Características clave
-
Eliminación de DFL
El módulo de pérdida focal de distribución (DFL), aunque eficaz, a menudo complicaba la exportación y limitaba la compatibilidad del hardware. YOLO26 elimina por completo DFL, lo que simplifica la inferencia y amplía la compatibilidad con dispositivos de borde y de bajo consumo. -
Inferencia sin NMS de extremo a extremo
A diferencia de los detectores tradicionales que se basan en el NMS como un paso independiente de post-procesamiento, YOLO26 es nativamente de extremo a extremo. Las predicciones se generan directamente, lo que reduce la latencia y hace que la integración en los sistemas de producción sea más rápida, ligera y fiable. -
ProgLoss + STAL
Las funciones de pérdida mejoradas aumentan la precisión de la detección, con mejoras notables en el reconocimiento de objetos pequeños, un requisito fundamental para IoT, robótica, imágenes aéreas y otras aplicaciones de borde. -
Optimizador MuSGD
Un nuevo optimizador híbrido que combina SGD con Muon. Inspirado en el Kimi K2 de Moonshot AI, MuSGD introduce métodos de optimización avanzados del entrenamiento LLM en la visión por ordenador, lo que permite un entrenamiento más estable y una convergencia más rápida. -
Inferencia de CPU hasta un 43% más rápida
Específicamente optimizado para la computación periférica, YOLO26 ofrece una inferencia de CPU significativamente más rápida, lo que garantiza el rendimiento en tiempo real en dispositivos sin GPU.
Tareas y modos admitidos
YOLO26 se ha diseñado como una familia de modelos multitarea que amplía la versatilidad de YOLO a diversos retos de visión por ordenador:
Modelo | Tarea | Inferencia | Validación | Entrenamiento | Exportar |
---|---|---|---|---|---|
YOLO26 | Detección | ✅ | ✅ | ✅ | ✅ |
YOLO26-seg | Segmentación de instancias | ✅ | ✅ | ✅ | ✅ |
YOLO26-pose | Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
YOLO26-obb | Detección Orientada | ✅ | ✅ | ✅ | ✅ |
YOLO26-cls | Clasificación | ✅ | ✅ | ✅ | ✅ |
Este marco unificado garantiza que YOLO26 sea aplicable a la detección en tiempo real, la segmentación, la clasificación, la estimación de la pose y la detección de objetos orientados, todo ello con soporte de formación, validación, inferencia y exportación.
Métricas de rendimiento
Avance de la actuación
Los siguientes puntos de referencia son anticipos. Las cifras definitivas y los pesos descargables se publicarán una vez finalizado el entrenamiento.
Entrenado en COCO con 80 clases preentrenadas.
Consulte los documentos de detección para conocer su uso una vez publicados los modelos.
Modelo | tamaño (píxeles) |
mAPval 50-95(e2e) |
mAPval 50-95 |
Velocidad CPU ONNX (ms) |
Velocidad T4 TensorRT10 (ms) |
parámetros (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO26n | 640 | 39.8 | 40.3 | 38.90 ± 0.7 | 1.7 ± 0.0 | 2.4 | 5.4 |
YOLO26s | 640 | 47.2 | 47.6 | 87.16 ± 0.9 | 2.7 ± 0.0 | 9.5 | 20.7 |
YOLO26m | 640 | 51.5 | 51.7 | 220.0 ± 1.4 | 4.9 ± 0.1 | 20.4 | 68.2 |
YOLO26l | 640 | 53.0* | 53.4* | 286.17 ± 2.0* | 6.5 ± 0.2* | 24.8 | 86.4 |
YOLO26x | 640 | - | - | - | - | - | - |
*Las mediciones de YOLO26l y YOLO26x están en curso. Los valores de referencia definitivos se añadirán aquí.
Las métricas de rendimiento estarán disponibles próximamente.
Las métricas de rendimiento estarán disponibles próximamente.
Las métricas de rendimiento estarán disponibles próximamente.
Las métricas de rendimiento estarán disponibles próximamente.
Citas y agradecimientos
Publicación Ultralytics YOLO26
Ultralytics no ha publicado un documento de investigación formal para YOLO26 debido a la rápida evolución de los modelos. En su lugar, nos centramos en ofrecer modelos de vanguardia y hacer que sean fáciles de usar. Para obtener las últimas actualizaciones sobre las características, arquitecturas y uso YOLO , visite nuestro repositorio GitHub y la documentación.
Si utiliza YOLO26 u otro software Ultralytics en su trabajo, cítelo como:
@software{yolo26_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO26},
version = {26.0.0},
year = {2025},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI pendiente. YOLO26 está disponible bajo AGPL-3.0 y Enterprise.
Preguntas frecuentes
¿Cuáles son las principales mejoras del YOLO26 con respecto YOLO11?
- Eliminación de DFL: Simplifica la exportación y amplía la compatibilidad de los bordes
- Inferencia sin NMS de extremo a extremo: Elimina el NMS para una implantación más rápida y sencilla.
- ProgLoss + STAL: Aumenta la precisión, especialmente en objetos pequeños.
- Optimizador MuSGD: Combina SGD y Muon (inspirado en Kimi K2 de Moonshot) para un entrenamiento más estable y eficiente.
- Inferencia de CPU hasta un 43% más rápida: Importantes mejoras de rendimiento para los dispositivos CPU
¿Qué tareas apoyará YOLO26?
YOLO26 se ha diseñado como una familia de modelos unificada que ofrece soporte integral para múltiples tareas de visión por ordenador:
- Detección de objetos
- Segmentación de instancias
- Clasificación de imágenes
- Estimación de pose
- Detección de objetos orientados (OBB)
Está previsto que cada variante de tamaño (n, s, m, l, x) admita todas las tareas en el momento de la liberación.
¿Por qué YOLO26 está optimizado para su implantación en los bordes?
YOLO26 ofrece un rendimiento de vanguardia con:
- Inferencia de CPU hasta un 43% más rápida
- Reducción del tamaño del modelo y del espacio de memoria
- Arquitectura simplificada para mayor compatibilidad (sin DFL ni NMS)
- Formatos de exportación flexibles, incluidos TensorRT, ONNX, CoreML, TFLite y OpenVINO.
¿Cuándo estarán disponibles los modelos YOLO26?
Los modelos YOLO26 aún están en fase de formación y no son de código abierto. Aquí se muestran avances de rendimiento, mientras que las descargas y versiones oficiales están previstas para un futuro próximo. Véase YOLO Vision 2025 para las conversaciones sobre YOLO26.