Ir al contenido

Comparaciones de modelos: elija el mejor modelo de detección de objetos para su proyecto

Elegir la arquitectura de red neuronal adecuada es la piedra angular del éxito de cualquier proyecto de visión por ordenador. Bienvenido al centro de comparación de modelosUltralytics . Esta página centraliza los análisis técnicos detallados y las pruebas comparativas de rendimiento, diseccionando las ventajas y desventajas entre los últimos modelos de Ultralytics. Ultralytics YOLO11 y otras arquitecturas líderes como YOLOv10, RT-DETR y EfficientDet.

Tanto si su aplicación exige la latencia de milisegundos de la IA de borde como la precisión de alta fidelidad que requieren las imágenes médicas, esta guía proporciona los datos necesarios para tomar una decisión informada. Evaluamos los modelos en función de la precisión media (mAP), la velocidad de inferencia, la eficiencia de los parámetros y la facilidad de despliegue.

Puntos de referencia interactivos

Visualizar la relación entre velocidad y precisión es esencial para identificar la "frontera de Pareto" de los modelos de detección de objetos que ofrecen la mayor precisión para una determinada limitación de velocidad. El gráfico siguiente contrasta métricas clave en conjuntos de datos estándar como COCO.

Este gráfico visualiza las principales métricas de rendimiento, lo que le permite evaluar rápidamente las ventajas y desventajas de los distintos modelos. Comprender estas métricas es fundamental para seleccionar un modelo que se ajuste a sus limitaciones específicas de implantación.

Guía de decisión rápida

¿No sabe por dónde empezar? Utilice este árbol de decisiones para acotar la arquitectura que mejor se adapte a sus requisitos de hardware y rendimiento.

graph TD
    A[Start: Define Project Needs] --> B{Deployment Hardware?}
    B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
    B -- "Cloud / GPU" --> D{Accuracy vs Speed?}

    C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
    C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]

    D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
    D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]

    A --> I{Specialized Features?}
    I -- "NMS-Free Inference" --> J[YOLOv10]
    I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
    I -- "Video Analytics" --> L[YOLO11 + Tracking]

El panorama actual: YOLO11 y más allá

El campo de la detección de objetos evoluciona rápidamente. Mientras que los modelos más antiguos siguen siendo relevantes para el soporte heredado, las nuevas arquitecturas amplían los límites de lo posible.

Ultralytics YOLO11

Como la última versión estable, YOLO11 es el punto de partida recomendado para nuevos proyectos. Introduce mejoras arquitectónicas significativas con respecto a las versiones anteriores, incluidas capacidades mejoradas de extracción de características y gráficos de cálculo optimizados. Admite un conjunto completo de tareas -detección, segmentación, estimación de la pose, clasificación y Oriented Bounding Boxes (OBB)- dentro de un marco único y unificado.

¿Por qué elegir YOLO11?

YOLO11 representa la cúspide de la ingeniería Ultralytics , ofreciendo el mejor equilibrio entre velocidad y precisión para aplicaciones del mundo real. Está totalmente respaldado por nuestro ecosistema, lo que garantiza su mantenimiento y compatibilidad a largo plazo.

Modelos comunitarios: Una nota sobre YOLO12 y YOLO13

Es posible que encuentre referencias a YOLO12 o YOLO13 en los debates o repositorios de la comunidad.

Precaución de producción

Actualmente no recomendamos YOLO12 ni YOLO13 para uso en producción.

  • YOLO12: Utiliza capas de atención que a menudo causan inestabilidad en el entrenamiento, consumo excesivo de memoria y velocidades de inferencia de CPU significativamente más lentas.
  • YOLO13: las pruebas de rendimiento indican sólo un aumento marginal de la precisión con respecto a YOLO11 , aunque es más grande y más lento. Los resultados comunicados han mostrado problemas de reproducibilidad.

Mirando hacia el futuro: YOLO26 y la plataforma Ultralytics

Ultralytics está desarrollando activamente YOLO26, cuyo lanzamiento de código abierto está previsto para finales de 2025. Este modelo de próxima generación pretende dar soporte a todas las tareas de YOLO11 , siendo más pequeño, más rápido y nativo de extremo a extremo. Además, en 2026, la plataformaUltralytics se lanzará como una solución SaaS integral para el abastecimiento de datos, la anotación automática y la formación en la nube, simplificando todo el ciclo de vida de MLOps.



Ver: Comparación de modelos YOLO : Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉

Comparación detallada de modelos

Explore nuestras exhaustivas comparaciones técnicas para comprender las diferencias arquitectónicas específicas, como la selección de la columna vertebral, el diseño del cabezal y las funciones de pérdida. Las hemos organizado por modelos para facilitar el acceso:

YOLO11 vs

YOLO11 se basa en el éxito de sus predecesores con investigación de vanguardia. Presenta una arquitectura de columna vertebral y cuello mejorada para una mejor extracción de características y una eficiencia optimizada.

YOLOv10 vs

Desarrollado por la Universidad de Tsinghua, YOLOv10 se centra en eliminar el paso de supresión no máxima (NMS ) para reducir la varianza de latencia, ofreciendo un rendimiento de vanguardia con una sobrecarga computacional reducida.

YOLOv9 vs

YOLOv9 introduce la Información de Gradiente Programable (PGI) y la Red de Agregación de Capas Eficiente Generalizada (GELAN) para abordar la pérdida de información en redes neuronales profundas.

YOLOv8 vs

Ultralytics YOLOv8 sigue siendo una opción muy popular, con arquitecturas avanzadas de columna vertebral y cuello y un cabezal dividido sin anclajes para una óptima relación precisión-velocidad.

YOLOv7 vs

YOLOv7 introdujo el "bag-of-freebies entrenable" y la re-parametrización del modelo, centrándose en optimizar el proceso de entrenamiento sin aumentar los costes de inferencia.

YOLOv6 vs

YOLOv6 de Meituan está diseñado para aplicaciones industriales y cuenta con módulos de concatenación bidireccional (BiC) y estrategias de formación asistida por anclaje.

YOLOv5 vs

Ultralytics YOLOv5 es famoso por su facilidad de uso, estabilidad y velocidad. Sigue siendo una opción sólida para proyectos que requieren una amplia compatibilidad de dispositivos.

RT-DETR vs

RT-DETR (Real-Time Detection Transformer) aprovecha los transformadores de visión para lograr una gran precisión con un rendimiento en tiempo real, destacando en la comprensión global del contexto.

PP-YOLOE+ vs

PP-YOLOE+, desarrollado por Baidu, utiliza el aprendizaje por alineación de tareas (TAL) y un cabezal desacoplado para equilibrar eficacia y precisión.

DAMO-YOLO vs

De Alibaba Group, YOLO emplea la búsqueda de arquitectura neuronal (NAS) y la eficiente RepGFPN para maximizar la precisión en los puntos de referencia estáticos.

YOLOX vs

YOLOX, desarrollado por Megvii, es una evolución sin anclas conocida por su cabeza desacoplada y su estrategia de asignación de etiquetas SimOTA.

EfficientDet vs

EfficientDet de Google Brain utiliza el escalado compuesto y BiFPN para optimizar la eficiencia de los parámetros, ofreciendo un espectro de modelos (D0-D7) para diferentes restricciones.

Este índice se actualiza continuamente a medida que se publican nuevos modelos y se perfeccionan los puntos de referencia. Le animamos a explorar estos recursos para encontrar la solución perfecta para su próximo proyecto de visión por ordenador. Si busca soluciones empresariales con licencia privada, visite nuestra página de licencias. ¡Feliz comparación!


Comentarios