Ir al contenido

YOLOv7: Bolsa de regalos entrenable

YOLOv7 es un detector de objetos en tiempo real de última generación que supera a todos los detectores de objetos conocidos tanto en velocidad como en precisión en el rango de 5 FPS a 160 FPS. Tiene la mayor precisión (56,8% AP) entre todos los detectores de objetos en tiempo real conocidos con 30 FPS o más en GPU V100. Además, YOLOv7 supera en velocidad y precisión a otros detectores de objetos como YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, y muchos otros. El modelo se entrena en el conjunto de datos MS COCO desde cero, sin utilizar otros conjuntos de datos ni pesos preentrenados. El código fuente de YOLOv7 está disponible en GitHub.

Comparación de YOLOv7 con los detectores de objetos SOTA

Comparación de los detectores de objetos SOTA

A partir de los resultados de la tabla comparativa de YOLO , sabemos que el método propuesto presenta la mejor relación velocidad-precisión de forma global. Si comparamos YOLOv7-tiny-SiLU con YOLOv5(r6.1), nuestro método es 127 fps más rápido y un 10,7% más preciso en AP. Además, YOLOv7 tiene un 51,4% de AP con una tasa de fotogramas de 161 fps, mientras que PPYOLOE-L con el mismo AP sólo tiene una tasa de fotogramas de 78 fps. En cuanto al uso de parámetros, YOLOv7 es un 41% menos que PPYOLOE-L.

Si comparamos YOLOv7-X, con una velocidad de inferencia de 114 fps, con YOLOv5(r6.1), con una velocidad de inferencia de 99 fps, YOLOv7-X puede mejorar AP en un 3,9%. Si se compara YOLOv7-X con YOLOv5(r6.1) de escala similar, la velocidad de inferencia de YOLOv7-X es 31 fps más rápida. Además, en términos de cantidad de parámetros y de cálculo, YOLOv7-X reduce el 22% de los parámetros y el 8% del cálculo en comparación con YOLOv5(r6.1), pero mejora AP en un 2,2%(Fuente).

Rendimiento

Modelo Parámetros
(M)
FLOPs
(G)
Tamaño
(píxeles)
FPS APtest/ val
50-95
APtest
50
APtest
75
APtest
S
APtest
M
APrueba
L
YOLOX-S 9.0 26.8 640 102 40.5% / 40.5% - - - - -
YOLOX-M 25.3 73.8 640 81 47.2% / 46.9% - - - - -
YOLOX-L 54.2 155.6 640 69 50.1% / 49.7% - - - - -
YOLOX-X 99.1 281.9 640 58 51.5% / 51.1% - - - - -
PPYOLOE-S 7.9 17.4 640 208 43.1% / 42.7% 60.5% 46.6% 23.2% 46.4% 56.9%
PPYOLOE-M 23.4 49.9 640 123 48.9% / 48.6% 66.5% 53.0% 28.6% 52.9% 63.8%
PPYOLOE-L 52.2 110.1 640 78 51.4% / 50.9% 68.9% 55.6% 31.4% 55.3% 66.1%
PPYOLOE-X 98.4 206.6 640 45 52.2% / 51.9% 69.9% 56.5% 33.3% 56.3% 66.4%
YOLOv5-N (r6.1) 1.9 4.5 640 159 - / 28.0% - - - - -
YOLOv5-S (r6.1) 7.2 16.5 640 156 - / 37.4% - - - - -
YOLOv5-M (r6.1) 21.2 49.0 640 122 - / 45.4% - - - - -
YOLOv5-L (r6.1) 46.5 109.1 640 99 - / 49.0% - - - - -
YOLOv5-X (r6.1) 86.7 205.7 640 83 - / 50.7% - - - - -
YOLOR-CSP 52.9 120.4 640 106 51.1% / 50.8% 69.6% 55.7% 31.7% 55.3% 64.7%
YOLOR-CSP-X 96.9 226.8 640 87 53.0% / 52.7% 71.4% 57.9% 33.7% 57.1% 66.8%
YOLOv7-tiny-SiLU 6.2 13.8 640 286 38.7% / 38.7% 56.7% 41.7% 18.8% 42.4% 51.9%
YOLOv7 36.9 104.7 640 161 51.4% / 51.2% 69.7% 55.9% 31.8% 55.5% 65.0%
YOLOv7-X 71.3 189.9 640 114 53.1% / 52.9% 71.2% 57.8% 33.8% 57.1% 67.4%
YOLOv5-N6 (r6.1) 3.2 18.4 1280 123 - / 36.0% - - - - -
YOLOv5-S6 (r6.1) 12.6 67.2 1280 122 - / 44.8% - - - - -
YOLOv5-M6 (r6.1) 35.7 200.0 1280 90 - / 51.3% - - - - -
YOLOv5-L6 (r6.1) 76.8 445.6 1280 63 - / 53.7% - - - - -
YOLOv5-X6 (r6.1) 140.7 839.2 1280 38 - / 55.0% - - - - -
YOLOR-P6 37.2 325.6 1280 76 53.9% / 53.5% 71.4% 58.9% 36.1% 57.7% 65.6%
YOLOR-W6 79.8 453.2 1280 66 55.2% / 54.8% 72.7% 60.5% 37.7% 59.1% 67.1%
YOLOR-E6 115.8 683.2 1280 45 55.8% / 55.7% 73.4% 61.1% 38.4% 59.7% 67.7%
YOLOR-D6 151.7 935.6 1280 34 56.5% / 56.1% 74.1% 61.9% 38.9% 60.4% 68.7%
YOLOv7-W6 70.4 360.0 1280 84 54.9% / 54.6% 72.6% 60.1% 37.3% 58.7% 67.1%
YOLOv7-E6 97.2 515.2 1280 56 56.0% / 55.9% 73.5% 61.2% 38.0% 59.9% 68.4%
YOLOv7-D6 154.7 806.8 1280 44 56.6% / 56.3% 74.0% 61.8% 38.8% 60.1% 69.5%
YOLOv7-E6E 151.7 843.2 1280 36 56.8% / 56.8% 74.4% 62.1% 39.3% 60.5% 69.0%

Visión general

La detección de objetos en tiempo real es un componente importante en muchos sistemas de visión por ordenador, comoel seguimiento multiobjeto, la conducción autónoma, la robótica y el análisis de imágenes médicas. En los últimos años, el desarrollo de la detección de objetos en tiempo real se ha centrado en diseñar arquitecturas eficientes y mejorar la velocidad de inferencia de diversas CPU, GPU y unidades de procesamiento neuronal (NPU). YOLOv7 es compatible con dispositivos móviles y GPU , desde el borde hasta la nube.

A diferencia de los detectores de objetos en tiempo real tradicionales, que se centran en la optimización de la arquitectura, YOLOv7 introduce un enfoque en la optimización del proceso de entrenamiento. Esto incluye módulos y métodos de optimización diseñados para mejorar la precisión de la detección de objetos sin aumentar el coste de inferencia, un concepto conocido como "trainable bag-of-freebies".

Características principales

YOLOv7 introduce varias características clave:

  1. Re-parametrización del modelo: YOLOv7 propone un modelo re-parametrizado planificado, que es una estrategia aplicable a capas en diferentes redes con el concepto de trayectoria de propagación de gradiente.

  2. Asignación dinámica de etiquetas: El entrenamiento del modelo con múltiples capas de salida presenta un nuevo problema: "¿Cómo asignar objetivos dinámicos para las salidas de diferentes ramas?". Para resolver este problema, YOLOv7 introduce un nuevo método de asignación de etiquetas denominado asignación de etiquetas guiada por pistas de grueso a fino.

  3. Escalado extendido y compuesto: YOLOv7 propone métodos de "escalado extendido" y "compuesto" para el detector de objetos en tiempo real que pueden utilizar eficazmente los parámetros y el cálculo.

  4. Eficacia: El método propuesto por YOLOv7 puede reducir eficazmente alrededor del 40% de los parámetros y el 50% del cálculo del detector de objetos en tiempo real más avanzado, y tiene una velocidad de inferencia más rápida y una mayor precisión de detección.

Ejemplos de uso

En el momento de escribir estas líneas, Ultralytics no es compatible con los modelos YOLOv7. Por lo tanto, los usuarios interesados en utilizar YOLOv7 deberán consultar directamente el repositorio GitHub de YOLOv7 para obtener instrucciones de instalación y uso.

A continuación le ofrecemos un breve resumen de los pasos típicos que puede seguir para utilizar YOLOv7:

  1. Visita el repositorio GitHub de YOLOv7: https://github.com/WongKinYiu/yolov7.

  2. Siga las instrucciones del archivo README para la instalación. Esto normalmente implica clonar el repositorio, instalar las dependencias necesarias y configurar las variables de entorno necesarias.

  3. Una vez finalizada la instalación, puede entrenar y utilizar el modelo según las instrucciones de uso proporcionadas en el repositorio. Esto suele implicar la preparación del conjunto de datos, la configuración de los parámetros del modelo, el entrenamiento del modelo y, a continuación, el uso del modelo entrenado para realizar la detección de objetos.

Tenga en cuenta que los pasos concretos pueden variar en función de su caso de uso específico y del estado actual del repositorio de YOLOv7. Por lo tanto, se recomienda encarecidamente consultar directamente las instrucciones proporcionadas en el repositorio GitHub de YOLOv7.

Lamentamos las molestias que esto pueda causar y nos esforzaremos por actualizar este documento con ejemplos de uso para Ultralytics una vez que se implemente la compatibilidad con YOLOv7.

Citas y agradecimientos

Queremos agradecer a los autores de YOLOv7 sus importantes contribuciones en el campo de la detección de objetos en tiempo real:

@article{wang2022yolov7,
  title={YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

El artículo original sobre YOLOv7 puede consultarse en arXiv. Los autores han puesto su trabajo a disposición del público y se puede acceder al código base en GitHub. Agradecemos sus esfuerzos por hacer avanzar este campo y poner su trabajo a disposición de la comunidad en general.

PREGUNTAS FRECUENTES

¿Qué es YOLOv7 y por qué se considera un gran avance en la detección de objetos en tiempo real?

YOLOv7 es un modelo puntero de detección de objetos en tiempo real que alcanza una velocidad y una precisión inigualables. Supera a otros modelos, como YOLOX, YOLOv5 y PPYOLOE, tanto en el uso de parámetros como en la velocidad de inferencia. Entre las características distintivas de YOLOv7 se encuentran la reparametrización del modelo y la asignación dinámica de etiquetas, que optimizan su rendimiento sin aumentar los costes de inferencia. Para obtener más detalles técnicos sobre su arquitectura y comparaciones métricas con otros detectores de objetos de última generación, consulte el artículo YOLOv7.

¿En qué mejora YOLOv7 a modelos anteriores de YOLO como YOLOv4 y YOLOv5?

YOLOv7 introduce varias innovaciones, como la reparametrización del modelo y la asignación dinámica de etiquetas, que mejoran el proceso de formación y la precisión de la inferencia. En comparación con YOLOv5, YOLOv7 aumenta significativamente la velocidad y la precisión. Por ejemplo, YOLOv7-X mejora la precisión en un 2,2% y reduce los parámetros en un 22% en comparación con YOLOv5-X. Encontrará comparaciones detalladas en la tabla de rendimiento Comparación de YOLOv7 con los detectores de objetos SOTA.

¿Puedo utilizar YOLOv7 con las herramientas y plataformas de Ultralytics ?

Por el momento, Ultralytics no soporta directamente YOLOv7 en sus herramientas y plataformas. Los usuarios interesados en utilizar YOLOv7 deben seguir las instrucciones de instalación y uso proporcionadas en el repositorio GitHub de YOLOv7. Para otros modelos de última generación, puede explorar y entrenar utilizando herramientas de Ultralytics como Ultralytics HUB.

¿Cómo instalo y ejecuto YOLOv7 para un proyecto de detección de objetos personalizado?

Para instalar y ejecutar YOLOv7, siga estos pasos:

  1. Clonar el repositorio YOLOv7:
    git clone https://github.com/WongKinYiu/yolov7
    
  2. Navegue hasta el directorio clonado e instale las dependencias:
    cd yolov7
    pip install -r requirements.txt
    
  3. Prepare su conjunto de datos y configure los parámetros del modelo de acuerdo con las instrucciones de uso proporcionadas en el repositorio. Para obtener más orientación, visite el repositorio GitHub de YOLOv7 para consultar la información y las actualizaciones más recientes.

¿Cuáles son las principales características y optimizaciones introducidas en YOLOv7?

YOLOv7 ofrece varias funciones clave que revolucionan la detección de objetos en tiempo real:

  • Reparametrización del modelo: Mejora el rendimiento del modelo optimizando las rutas de propagación del gradiente.
  • Asignación dinámica de etiquetas: Utiliza un método guiado por pistas de grueso a fino para asignar objetivos dinámicos para salidas a través de diferentes ramas, mejorando la precisión.
  • Escalado ampliado y compuesto: Utiliza eficientemente los parámetros y el cálculo para escalar el modelo para diversas aplicaciones en tiempo real.
  • Eficacia: Reduce el recuento de parámetros en un 40% y el cómputo en un 50% en comparación con otros modelos del estado de la técnica, al tiempo que logra velocidades de inferencia más rápidas.

Para más detalles sobre estas funciones, consulte la sección Visión general de YOLOv7.

Creado hace 1 año ✏️ Actualizado hace 1 mes

Comentarios