Comparaciones de modelos: elija el mejor modelo de detección de objetos para su proyecto
Elegir la arquitectura de red neuronal adecuada es la piedra angular de cualquier proyecto exitoso de visión artificial. ¡Bienvenido al Centro de Comparación de Modelos de Ultralytics! Esta página centraliza análisis técnicos detallados y evaluaciones comparativas de rendimiento, analizando las ventajas y desventajas entre el último Ultralytics YOLO11 y otras arquitecturas líderes como YOLOv10, RT-DETR y EfficientDet.
Ya sea que su aplicación exija la latencia de milisegundos de la IA en el borde o la precisión de alta fidelidad requerida para las imágenes médicas, esta guía proporciona la información basada en datos necesaria para tomar una decisión informada. Evaluamos los modelos basándonos en la Precisión Media Promedio (mAP), la velocidad de inferencia, la eficiencia de los parámetros y la facilidad de implementación.
Benchmarks de rendimiento interactivos
Visualizar la relación entre velocidad y precisión es esencial para identificar la "frontera de Pareto" de la detección de objetos: modelos que ofrecen la mejor precisión para una restricción de velocidad dada. El siguiente gráfico contrasta las métricas clave en conjuntos de datos estándar como COCO.
Este gráfico visualiza las métricas de rendimiento clave, lo que te permite evaluar rápidamente las compensaciones entre diferentes modelos. Comprender estas métricas es fundamental para seleccionar un modelo que se alinee con tus limitaciones de implementación específicas.
Guía de Decisión Rápida
¿No está seguro de por dónde empezar? Utilice este árbol de decisiones para reducir la arquitectura que mejor se adapte a sus requisitos de hardware y rendimiento.
graph TD
A[Start: Define Project Needs] --> B{Deployment Hardware?}
B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
B -- "Cloud / GPU" --> D{Accuracy vs Speed?}
C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]
D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]
A --> I{Specialized Features?}
I -- "NMS-Free Inference" --> J[YOLOv10]
I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
I -- "Video Analytics" --> L[YOLO11 + Tracking]
El panorama actual: YOLO11 y más allá
El campo de la detección de objetos avanza rápidamente. Si bien los modelos más antiguos siguen siendo relevantes para el soporte heredado, las nuevas arquitecturas superan los límites de lo posible.
Ultralytics YOLO11
Como la última versión estable, YOLO11 es el punto de partida recomendado para nuevos proyectos. Introduce mejoras arquitectónicas significativas con respecto a las versiones anteriores, incluidas capacidades mejoradas de extracción de características y gráficos de computación optimizados. Admite un conjunto completo de tareas: detección, segmentación, estimación de pose, clasificación y cajas delimitadoras orientadas (OBB), dentro de un único marco unificado.
¿Por qué elegir YOLO11?
YOLO11 representa la cúspide de la ingeniería de Ultralytics, ofreciendo el mejor equilibrio entre velocidad y precisión para aplicaciones del mundo real. Cuenta con el respaldo total de nuestro ecosistema, lo que garantiza un mantenimiento y una compatibilidad a largo plazo.
Modelos de la comunidad: Una nota sobre YOLO12 y YOLO13
Es posible que encuentres referencias a YOLO12 o YOLO13 en debates o repositorios de la comunidad.
Precaución para producción
Actualmente no recomendamos YOLO12 ni YOLO13 para su uso en producción.
- YOLO12: Utiliza capas de atención que a menudo causan inestabilidad en el entrenamiento, consumo excesivo de memoria y velocidades de inferencia de CPU significativamente más lentas.
- YOLO13: las pruebas de rendimiento indican sólo un aumento marginal de la precisión con respecto a YOLO11 , aunque es más grande y más lento. Los resultados comunicados han mostrado problemas de reproducibilidad.
Mirando hacia el futuro: Plataforma YOLO26 y Ultralytics
Ultralytics está desarrollando activamente YOLO26, con el objetivo de lanzar una versión de código abierto a finales de 2025. Este modelo de próxima generación tiene como objetivo admitir todas las tareas de YOLO11, al tiempo que es más pequeño, más rápido y nativo de extremo a extremo. Además, en 2026, la Plataforma Ultralytics se lanzará como una solución SaaS integral para el abastecimiento de datos, el autoetiquetado y el entrenamiento en la nube, lo que simplificará todo el ciclo de vida de MLOps.
Ver: Comparación de modelos YOLO: Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉
Comparaciones detalladas de modelos
Explore nuestras comparaciones técnicas detalladas para comprender las diferencias arquitectónicas específicas, como la selección del backbone, el diseño del head y las funciones de pérdida. Los hemos organizado por modelo para facilitar el acceso:
YOLO11 vs
YOLO11 se basa en el éxito de sus predecesores con investigación de vanguardia. Cuenta con una arquitectura de backbone y cuello mejorada para una mejor extracción de características y una eficiencia optimizada.
- YOLO11 vs YOLOv10
- YOLO11 vs YOLOv9
- YOLO11 vs YOLOv8
- YOLO11 vs YOLOv7
- YOLO11 vs YOLOv6-3.0
- YOLO11 vs YOLOv5
- YOLO11 vs PP-YOLOE+
- YOLO11 vs DAMO-YOLO
- YOLO11 vs YOLOX
- YOLO11 vs RT-DETR
- YOLO11 vs EfficientDet
YOLOv10 vs
Desarrollado por la Universidad de Tsinghua, YOLOv10 se centra en eliminar el paso de Supresión No Máxima (NMS) para reducir la variación de la latencia, ofreciendo un rendimiento de última generación con una sobrecarga computacional reducida.
- YOLOv10 vs YOLO11
- YOLOv10 vs YOLOv9
- YOLOv10 vs YOLOv8
- YOLOv10 vs YOLOv7
- YOLOv10 vs YOLOv6-3.0
- YOLOv10 vs YOLOv5
- YOLOv10 vs PP-YOLOE+
- YOLOv10 vs DAMO-YOLO
- YOLOv10 vs YOLOX
- YOLOv10 vs RT-DETR
- YOLOv10 vs EfficientDet
YOLOv9 vs
YOLOv9 introduce la Información de Gradiente Programable (PGI) y la Red Generalizada de Agregación de Capas Eficientes (GELAN) para abordar la pérdida de información en las redes neuronales profundas.
- YOLOv9 vs YOLO11
- YOLOv9 vs YOLOv10
- YOLOv9 vs YOLOv8
- YOLOv9 vs YOLOv7
- YOLOv9 vs YOLOv6-3.0
- YOLOv9 vs YOLOv5
- YOLOv9 vs PP-YOLOE+
- YOLOv9 vs DAMO-YOLO
- YOLOv9 vs YOLOX
- YOLOv9 vs RT-DETR
- YOLOv9 vs EfficientDet
YOLOv8 vs
Ultralytics YOLOv8 sigue siendo una opción muy popular, con arquitecturas avanzadas de backbone y cuello de botella, y un head dividido sin anclaje para obtener una relación óptima entre precisión y velocidad.
- YOLOv8 vs YOLO11
- YOLOv8 vs YOLOv10
- YOLOv8 vs YOLOv9
- YOLOv8 vs YOLOv7
- YOLOv8 vs YOLOv6-3.0
- YOLOv8 vs YOLOv5
- YOLOv8 vs PP-YOLOE+
- YOLOv8 vs DAMO-YOLO
- YOLOv8 vs YOLOX
- YOLOv8 vs RT-DETR
- YOLOv8 vs EfficientDet
YOLOv7 vs
YOLOv7 introdujo el "trainable bag-of-freebies" y la re-parametrización del modelo, centrándose en la optimización del proceso de entrenamiento sin aumentar los costes de inferencia.
- YOLOv7 vs YOLO11
- YOLOv7 vs YOLOv10
- YOLOv7 vs YOLOv9
- YOLOv7 vs YOLOv8
- YOLOv7 vs YOLOv6-3.0
- YOLOv7 vs YOLOv5
- YOLOv7 vs PP-YOLOE+
- YOLOv7 vs DAMO-YOLO
- YOLOv7 vs YOLOX
- YOLOv7 vs RT-DETR
- YOLOv7 vs EfficientDet
YOLOv6 vs
YOLOv6 de Meituan está diseñado para aplicaciones industriales, con módulos de Concatenación Bi-direccional (BiC) y estrategias de entrenamiento asistidas por anclaje.
- YOLOv6-3.0 vs YOLO11
- YOLOv6-3.0 vs YOLOv10
- YOLOv6-3.0 vs YOLOv9
- YOLOv6-3.0 vs YOLOv8
- YOLOv6-3.0 vs YOLOv7
- YOLOv6-3.0 vs YOLOv5
- YOLOv6-3.0 vs PP-YOLOE+
- YOLOv6-3.0 vs DAMO-YOLO
- YOLOv6-3.0 vs YOLOX
- YOLOv6-3.0 vs RT-DETR
- YOLOv6-3.0 vs EfficientDet
YOLOv5 vs
Ultralytics YOLOv5 es célebre por su facilidad de uso, estabilidad y velocidad. Sigue siendo una opción robusta para proyectos que requieren una amplia compatibilidad de dispositivos.
- YOLOv5 vs YOLO11
- YOLOv5 vs YOLOv10
- YOLOv5 vs YOLOv9
- YOLOv5 vs YOLOv8
- YOLOv5 vs YOLOv7
- YOLOv5 vs YOLOv6-3.0
- YOLOv5 vs PP-YOLOE+
- YOLOv5 vs DAMO-YOLO
- YOLOv5 vs YOLOX
- YOLOv5 vs RT-DETR
- YOLOv5 vs EfficientDet
RT-DETR vs
RT-DETR (Real-Time Detection Transformer) aprovecha los transformadores de visión para lograr una alta precisión con un rendimiento en tiempo real, destacando en la comprensión del contexto global.
- RT-DETR vs YOLO11
- RT-DETR vs YOLOv10
- RT-DETR vs YOLOv9
- RT-DETR vs YOLOv8
- RT-DETR vs YOLOv7
- RT-DETR vs YOLOv6-3.0
- RT-DETR vs YOLOv5
- RT-DETR vs PP-YOLOE+
- RT-DETR vs DAMO-YOLO
- RT-DETR vs YOLOX
- RT-DETR vs EfficientDet
PP-YOLOE+ vs
PP-YOLOE+, desarrollado por Baidu, utiliza Task Alignment Learning (TAL) y un encabezado desacoplado para equilibrar la eficiencia y la precisión.
- PP-YOLOE+ vs YOLO11
- PP-YOLOE+ vs YOLOv10
- PP-YOLOE+ vs YOLOv9
- PP-YOLOE+ vs YOLOv8
- PP-YOLOE+ vs YOLOv7
- PP-YOLOE+ vs YOLOv6-3.0
- PP-YOLOE+ vs YOLOv5
- PP-YOLOE+ vs DAMO-YOLO
- PP-YOLOE+ vs YOLOX
- PP-YOLOE+ vs RT-DETR
- PP-YOLOE+ vs EfficientDet
DAMO-YOLO vs
De Alibaba Group, DAMO-YOLO emplea la búsqueda de arquitectura neuronal (NAS) y RepGFPN eficiente para maximizar la precisión en benchmarks estáticos.
- DAMO-YOLO vs YOLO11
- DAMO-YOLO vs YOLOv10
- DAMO-YOLO vs YOLOv9
- DAMO-YOLO vs YOLOv8
- DAMO-YOLO vs YOLOv7
- DAMO-YOLO vs YOLOv6-3.0
- DAMO-YOLO vs YOLOv5
- DAMO-YOLO vs PP-YOLOE+
- DAMO-YOLO vs YOLOX
- DAMO-YOLO vs RT-DETR
- DAMO-YOLO vs EfficientDet
YOLOX vs
YOLOX, desarrollado por Megvii, es una evolución sin anclajes conocida por su head desacoplado y su estrategia de asignación de etiquetas SimOTA.
- YOLOX vs YOLO11
- YOLOX vs YOLOv10
- YOLOX vs YOLOv9
- YOLOX vs YOLOv8
- YOLOX vs YOLOv7
- YOLOX vs YOLOv6-3.0
- YOLOX vs YOLOv5
- YOLOX vs RT-DETR
- YOLOX vs PP-YOLOE+
- YOLOX vs DAMO-YOLO
- YOLOX vs EfficientDet
EfficientDet vs
EfficientDet de Google Brain utiliza el escalamiento compuesto y BiFPN para optimizar la eficiencia de los parámetros, ofreciendo un espectro de modelos (D0-D7) para diferentes restricciones.
- EfficientDet vs YOLO11
- EfficientDet vs YOLOv10
- EfficientDet vs YOLOv9
- EfficientDet vs YOLOv8
- EfficientDet vs YOLOv7
- EfficientDet vs YOLOv6-3.0
- EfficientDet vs YOLOv5
- EfficientDet vs PP-YOLOE+
- EfficientDet vs DAMO-YOLO
- EfficientDet vs YOLOX
- EfficientDet vs RT-DETR
Este índice se actualiza continuamente a medida que se lanzan nuevos modelos y se refinan los puntos de referencia. Le animamos a explorar estos recursos para encontrar la opción perfecta para su próximo proyecto de visión artificial. Si busca soluciones de nivel empresarial con licencias privadas, visite nuestra página de licencias. ¡Feliz comparación!