Saltar al contenido

YOLOv7: Bolsa de regalos entrenable

YOLOv7 es un detector de objetos en tiempo real de 煤ltima generaci贸n que supera a todos los detectores de objetos conocidos tanto en velocidad como en precisi贸n en el rango de 5 FPS a 160 FPS. Tiene la mayor precisi贸n (56,8% AP) entre todos los detectores de objetos en tiempo real conocidos con 30 FPS o m谩s en la GPU V100. Adem谩s, YOLOv7 supera en velocidad y precisi贸n a otros detectores de objetos como YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, y muchos otros. El modelo se entrena en el conjunto de datos MS COCO desde cero, sin utilizar ning煤n otro conjunto de datos ni pesos preentrenados. El c贸digo fuente de YOLOv7 est谩 disponible en GitHub.

Comparaci贸n de YOLOv7 con los detectores de objetos SOTA Comparaci贸n de los detectores de objetos m谩s avanzados. Por los resultados de la Tabla 2 sabemos que el m茅todo propuesto tiene la mejor relaci贸n velocidad-precisi贸n de forma global. Si comparamos YOLOv7-tiny-SiLU con YOLOv5-N (r6.1), nuestro m茅todo es 127 fps m谩s r谩pido y un 10,7% m谩s preciso en AP. Adem谩s, YOLOv7 tiene un 51,4% de AP con una velocidad de fotogramas de 161 fps, mientras que PPYOLOE-L con el mismo AP s贸lo tiene una velocidad de fotogramas de 78 fps. En cuanto al uso de par谩metros, YOLOv7 tiene un 41% menos que PPYOLOE-L. Si comparamos YOLOv7-X con una velocidad de inferencia de 114 fps con YOLOv5-L (r6.1) con una velocidad de inferencia de 99 fps, YOLOv7-X puede mejorar el AP en un 3,9%. Si se compara YOLOv7-X con YOLOv5-X (r6.1) de escala similar, la velocidad de inferencia de YOLOv7-X es 31 fps m谩s r谩pida. Adem谩s, en t茅rminos de cantidad de par谩metros y c谩lculo, YOLOv7-X reduce el 22% de los par谩metros y el 8% del c谩lculo en comparaci贸n con YOLOv5-X (r6.1), pero mejora el PA en un 2,2% (Fuente).

Visi贸n general

La detecci贸n de objetos en tiempo real es un componente importante en muchos sistemas de visi贸n por ordenador, como el seguimiento multiobjeto, la conducci贸n aut贸noma, la rob贸tica y el an谩lisis de im谩genes m茅dicas. En los 煤ltimos a帽os, el desarrollo de la detecci贸n de objetos en tiempo real se ha centrado en dise帽ar arquitecturas eficientes y mejorar la velocidad de inferencia de diversas CPU, GPU y unidades de procesamiento neuronal (NPU). YOLOv7 es compatible con dispositivos m贸viles y GPU, desde el borde hasta la nube.

A diferencia de los detectores de objetos en tiempo real tradicionales, que se centran en la optimizaci贸n de la arquitectura, YOLOv7 introduce un enfoque en la optimizaci贸n del proceso de entrenamiento. Esto incluye m贸dulos y m茅todos de optimizaci贸n dise帽ados para mejorar la precisi贸n de la detecci贸n de objetos sin aumentar el coste de la inferencia, un concepto conocido como "bag-of-freebies entrenable".

Caracter铆sticas principales

YOLOv7 introduce varias caracter铆sticas clave:

  1. Reparametrizaci贸n del modelo: YOLOv7 propone un modelo re-parametrizado planificado, que es una estrategia aplicable a capas de diferentes redes con el concepto de trayectoria de propagaci贸n de gradiente.

  2. Asignaci贸n din谩mica de etiquetas: El entrenamiento del modelo con m煤ltiples capas de salida presenta una nueva cuesti贸n: "驴C贸mo asignar objetivos din谩micos para las salidas de las distintas ramas?". Para resolver este problema, YOLOv7 introduce un nuevo m茅todo de asignaci贸n de etiquetas llamado asignaci贸n de etiquetas guiada de rama gruesa a fina.

  3. Escalado Extendido y Compuesto: YOLOv7 propone m茅todos de "escalado ampliado" y "escalado compuesto" para el detector de objetos en tiempo real, que pueden utilizar eficazmente los par谩metros y el c谩lculo.

  4. Eficacia: El m茅todo propuesto por YOLOv7 puede reducir eficazmente alrededor de un 40% los par谩metros y un 50% el c谩lculo del detector de objetos en tiempo real m谩s avanzado, y tiene una velocidad de inferencia m谩s r谩pida y una mayor precisi贸n de detecci贸n.

Ejemplos de uso

En el momento de escribir esto, Ultralytics no admite actualmente los modelos YOLOv7. Por lo tanto, cualquier usuario interesado en utilizar YOLOv7 tendr谩 que consultar directamente el repositorio GitHub de YOLOv7 para obtener instrucciones de instalaci贸n y uso.

Aqu铆 tienes un breve resumen de los pasos t铆picos que puedes dar para utilizar YOLOv7:

  1. Visita el repositorio GitHub de YOLOv7: https://github.com/WongKinYiu/yolov7.

  2. Sigue las instrucciones proporcionadas en el archivo README para la instalaci贸n. Esto suele implicar clonar el repositorio, instalar las dependencias necesarias y configurar las variables de entorno necesarias.

  3. Una vez completada la instalaci贸n, puedes entrenar y utilizar el modelo seg煤n las instrucciones de uso proporcionadas en el repositorio. Normalmente, esto implica preparar tu conjunto de datos, configurar los par谩metros del modelo, entrenar el modelo y, a continuaci贸n, utilizar el modelo entrenado para realizar la detecci贸n de objetos.

Ten en cuenta que los pasos concretos pueden variar en funci贸n de tu caso de uso espec铆fico y del estado actual del repositorio de YOLOv7. Por lo tanto, se recomienda encarecidamente consultar directamente las instrucciones proporcionadas en el repositorio GitHub de YOLOv7.

Lamentamos las molestias que esto pueda causar y nos esforzaremos por actualizar este documento con ejemplos de uso para Ultralytics una vez que se implemente la compatibilidad con YOLOv7.

Citas y agradecimientos

Queremos agradecer a los autores de YOLOv7 sus importantes contribuciones en el campo de la detecci贸n de objetos en tiempo real:

@article{wang2022yolov7,
  title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

El art铆culo original de YOLOv7 puede consultarse en arXiv. Los autores han puesto su trabajo a disposici贸n del p煤blico, y se puede acceder al c贸digo base en GitHub. Agradecemos sus esfuerzos por hacer avanzar el campo y poner su trabajo a disposici贸n de la comunidad en general.



Creado 2023-11-12, Actualizado 2024-01-07
Autores: glenn-jocher (5), sergiuwaxmann (1)

Comentarios