Ir al contenido

Comparaciones de modelos: elija el mejor modelo de detección de objetos para su proyecto

Elegir la arquitectura de red neuronal adecuada es la piedra angular de cualquier proyecto exitoso de visión artificial. ¡Bienvenido al Centro de Comparación de Modelos de Ultralytics! Esta página centraliza análisis técnicos detallados y evaluaciones comparativas de rendimiento, analizando las ventajas y desventajas entre el último Ultralytics YOLO11 y otras arquitecturas líderes como YOLOv10, RT-DETR y EfficientDet.

Ya sea que su aplicación exija la latencia de milisegundos de la IA en el borde o la precisión de alta fidelidad requerida para las imágenes médicas, esta guía proporciona la información basada en datos necesaria para tomar una decisión informada. Evaluamos los modelos basándonos en la Precisión Media Promedio (mAP), la velocidad de inferencia, la eficiencia de los parámetros y la facilidad de implementación.

Benchmarks de rendimiento interactivos

Visualizar la relación entre velocidad y precisión es esencial para identificar la "frontera de Pareto" de la detección de objetos: modelos que ofrecen la mejor precisión para una restricción de velocidad dada. El siguiente gráfico contrasta las métricas clave en conjuntos de datos estándar como COCO.

Este gráfico visualiza las métricas de rendimiento clave, lo que te permite evaluar rápidamente las compensaciones entre diferentes modelos. Comprender estas métricas es fundamental para seleccionar un modelo que se alinee con tus limitaciones de implementación específicas.

Guía de Decisión Rápida

¿No está seguro de por dónde empezar? Utilice este árbol de decisiones para reducir la arquitectura que mejor se adapte a sus requisitos de hardware y rendimiento.

graph TD
    A[Start: Define Project Needs] --> B{Deployment Hardware?}
    B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
    B -- "Cloud / GPU" --> D{Accuracy vs Speed?}

    C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
    C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]

    D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
    D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]

    A --> I{Specialized Features?}
    I -- "NMS-Free Inference" --> J[YOLOv10]
    I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
    I -- "Video Analytics" --> L[YOLO11 + Tracking]

El panorama actual: YOLO11 y más allá

El campo de la detección de objetos avanza rápidamente. Si bien los modelos más antiguos siguen siendo relevantes para el soporte heredado, las nuevas arquitecturas superan los límites de lo posible.

Ultralytics YOLO11

Como la última versión estable, YOLO11 es el punto de partida recomendado para nuevos proyectos. Introduce mejoras arquitectónicas significativas con respecto a las versiones anteriores, incluidas capacidades mejoradas de extracción de características y gráficos de computación optimizados. Admite un conjunto completo de tareas: detección, segmentación, estimación de pose, clasificación y cajas delimitadoras orientadas (OBB), dentro de un único marco unificado.

¿Por qué elegir YOLO11?

YOLO11 representa la cúspide de la ingeniería de Ultralytics, ofreciendo el mejor equilibrio entre velocidad y precisión para aplicaciones del mundo real. Cuenta con el respaldo total de nuestro ecosistema, lo que garantiza un mantenimiento y una compatibilidad a largo plazo.

Modelos de la comunidad: Una nota sobre YOLO12 y YOLO13

Es posible que encuentres referencias a YOLO12 o YOLO13 en debates o repositorios de la comunidad.

Precaución para producción

Actualmente no recomendamos YOLO12 ni YOLO13 para su uso en producción.

  • YOLO12: Utiliza capas de atención que a menudo causan inestabilidad en el entrenamiento, consumo excesivo de memoria y velocidades de inferencia de CPU significativamente más lentas.
  • YOLO13: las pruebas de rendimiento indican sólo un aumento marginal de la precisión con respecto a YOLO11 , aunque es más grande y más lento. Los resultados comunicados han mostrado problemas de reproducibilidad.

Mirando hacia el futuro: Plataforma YOLO26 y Ultralytics

Ultralytics está desarrollando activamente YOLO26, con el objetivo de lanzar una versión de código abierto a finales de 2025. Este modelo de próxima generación tiene como objetivo admitir todas las tareas de YOLO11, al tiempo que es más pequeño, más rápido y nativo de extremo a extremo. Además, en 2026, la Plataforma Ultralytics se lanzará como una solución SaaS integral para el abastecimiento de datos, el autoetiquetado y el entrenamiento en la nube, lo que simplificará todo el ciclo de vida de MLOps.



Ver: Comparación de modelos YOLO: Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉

Comparaciones detalladas de modelos

Explore nuestras comparaciones técnicas detalladas para comprender las diferencias arquitectónicas específicas, como la selección del backbone, el diseño del head y las funciones de pérdida. Los hemos organizado por modelo para facilitar el acceso:

YOLO11 vs

YOLO11 se basa en el éxito de sus predecesores con investigación de vanguardia. Cuenta con una arquitectura de backbone y cuello mejorada para una mejor extracción de características y una eficiencia optimizada.

YOLOv10 vs

Desarrollado por la Universidad de Tsinghua, YOLOv10 se centra en eliminar el paso de Supresión No Máxima (NMS) para reducir la variación de la latencia, ofreciendo un rendimiento de última generación con una sobrecarga computacional reducida.

YOLOv9 vs

YOLOv9 introduce la Información de Gradiente Programable (PGI) y la Red Generalizada de Agregación de Capas Eficientes (GELAN) para abordar la pérdida de información en las redes neuronales profundas.

YOLOv8 vs

Ultralytics YOLOv8 sigue siendo una opción muy popular, con arquitecturas avanzadas de backbone y cuello de botella, y un head dividido sin anclaje para obtener una relación óptima entre precisión y velocidad.

YOLOv7 vs

YOLOv7 introdujo el "trainable bag-of-freebies" y la re-parametrización del modelo, centrándose en la optimización del proceso de entrenamiento sin aumentar los costes de inferencia.

YOLOv6 vs

YOLOv6 de Meituan está diseñado para aplicaciones industriales, con módulos de Concatenación Bi-direccional (BiC) y estrategias de entrenamiento asistidas por anclaje.

YOLOv5 vs

Ultralytics YOLOv5 es célebre por su facilidad de uso, estabilidad y velocidad. Sigue siendo una opción robusta para proyectos que requieren una amplia compatibilidad de dispositivos.

RT-DETR vs

RT-DETR (Real-Time Detection Transformer) aprovecha los transformadores de visión para lograr una alta precisión con un rendimiento en tiempo real, destacando en la comprensión del contexto global.

PP-YOLOE+ vs

PP-YOLOE+, desarrollado por Baidu, utiliza Task Alignment Learning (TAL) y un encabezado desacoplado para equilibrar la eficiencia y la precisión.

DAMO-YOLO vs

De Alibaba Group, DAMO-YOLO emplea la búsqueda de arquitectura neuronal (NAS) y RepGFPN eficiente para maximizar la precisión en benchmarks estáticos.

YOLOX vs

YOLOX, desarrollado por Megvii, es una evolución sin anclajes conocida por su head desacoplado y su estrategia de asignación de etiquetas SimOTA.

EfficientDet vs

EfficientDet de Google Brain utiliza el escalamiento compuesto y BiFPN para optimizar la eficiencia de los parámetros, ofreciendo un espectro de modelos (D0-D7) para diferentes restricciones.

Este índice se actualiza continuamente a medida que se lanzan nuevos modelos y se refinan los puntos de referencia. Le animamos a explorar estos recursos para encontrar la opción perfecta para su próximo proyecto de visión artificial. Si busca soluciones de nivel empresarial con licencias privadas, visite nuestra página de licencias. ¡Feliz comparación!


Comentarios