Ir al contenido

Meituan YOLOv6

Visión general

Meituan YOLOv6 es un detector de objetos de última generación que ofrece un notable equilibrio entre velocidad y precisión, lo que lo convierte en una elección popular para aplicaciones en tiempo real. Este modelo introduce varias mejoras notables en su arquitectura y esquema de entrenamiento, como la implementación de un módulo de concatenación bidireccional (BiC), una estrategia de entrenamiento asistida por anclaje (AAT) y un diseño mejorado de la columna vertebral y el cuello para obtener la máxima precisión en el conjunto de datos COCO.

Meituan YOLOv6 Modelo de imagen de ejemplo Visión general de YOLOv6. Diagrama de la arquitectura del modelo que muestra los componentes rediseñados de la red y las estrategias de entrenamiento que han dado lugar a importantes mejoras de rendimiento. (a) El cuello de YOLOv6 (se muestran N y S). Nótese que para M/L, RepBlocks se sustituye por CSPStackRep. (b) La estructura de un módulo BiC. (c) Un bloque SimCSPSPPF. (fuente).

Características principales

  • Módulo de concatenación bidireccional (BiC): YOLOv6 introduce un módulo BiC en el cuello del detector, que mejora las señales de localización y ofrece mejoras de rendimiento con una degradación insignificante de la velocidad.
  • Estrategia de formación asistida por anclas (AAT): Este modelo propone AAT para disfrutar de las ventajas de los paradigmas basados en anclas y sin anclas sin comprometer la eficacia de la inferencia.
  • Diseño mejorado de la columna vertebral y el cuello: Al profundizar en YOLOv6 para incluir otra etapa en la columna vertebral y el cuello, este modelo logra un rendimiento de vanguardia en el conjunto de datos COCO con entradas de alta resolución.
  • Estrategia de autodestilación: Se implementa una nueva estrategia de autodestilación para aumentar el rendimiento de los modelos más pequeños de YOLOv6, mejorando la rama de regresión auxiliar durante el entrenamiento y eliminándola en la inferencia para evitar un marcado descenso de la velocidad.

Métricas de rendimiento

YOLOv6 proporciona varios modelos preentrenados con diferentes escalas:

  • YOLOv6-N: 37,5% AP en COCO val2017 a 1187 FPS con NVIDIA T4 GPU.
  • YOLOv6-S: 45,0% AP a 484 FPS.
  • YOLOv6-M: 50,0% AP a 226 FPS.
  • YOLOv6-L: 52,8% AP a 116 FPS.
  • YOLOv6-L6: precisión de vanguardia en tiempo real.

YOLOv6 también proporciona modelos cuantificados para distintas precisiones y modelos optimizados para plataformas móviles.

Ejemplos de uso

Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLOv6. Para obtener documentación completa sobre estos y otros modos, consulte las páginas de documentación Predicción, Entrenamiento, Val y Exportación.

Ejemplo

PyTorch preentrenado *.pt así como la configuración *.yaml pueden pasarse a la función YOLO() para crear una instancia del modelo en python:

from ultralytics import YOLO

# Build a YOLOv6n model from scratch
model = YOLO("yolov6n.yaml")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv6n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI para ejecutar directamente los modelos:

# Build a YOLOv6n model from scratch and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640

# Build a YOLOv6n model from scratch and run inference on the 'bus.jpg' image
yolo predict model=yolov6n.yaml source=path/to/bus.jpg

Tareas y modos compatibles

La serie YOLOv6 ofrece una gama de modelos, cada uno de ellos optimizado para la detección de objetos de alto rendimiento. Estos modelos se adaptan a diferentes necesidades de cálculo y requisitos de precisión, lo que los hace versátiles para una amplia gama de aplicaciones.

Tipo de modelo Pesas preentrenadas Tareas admitidas Inferencia Validación Formación Exportar
YOLOv6-N yolov6-n.pt Detección de objetos
YOLOv6-S yolov6-s.pt Detección de objetos
YOLOv6-M yolov6-m.pt Detección de objetos
YOLOv6-L yolov6-l.pt Detección de objetos
YOLOv6-L6 yolov6-l6.pt Detección de objetos

Esta tabla proporciona una visión detallada de las variantes del modelo YOLOv6, destacando sus capacidades en tareas de detección de objetos y su compatibilidad con diversos modos operativos como Inferencia, Validación, Entrenamiento y Exportación. Esta completa compatibilidad garantiza que los usuarios puedan aprovechar plenamente las capacidades de los modelos YOLOv6 en una amplia gama de escenarios de detección de objetos.

Citas y agradecimientos

Queremos agradecer a los autores sus importantes contribuciones en el campo de la detección de objetos en tiempo real:

@misc{li2023yolov6,
      title={YOLOv6 v3.0: A Full-Scale Reloading},
      author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu},
      year={2023},
      eprint={2301.05586},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

El artículo original sobre YOLOv6 puede consultarse en arXiv. Los autores han puesto su trabajo a disposición del público y se puede acceder al código base en GitHub. Agradecemos sus esfuerzos por hacer avanzar este campo y poner su trabajo a disposición de la comunidad en general.

PREGUNTAS FRECUENTES

¿Qué es Meituan YOLOv6 y qué lo hace único?

Meituan YOLOv6 es un detector de objetos de última generación que equilibra velocidad y precisión, ideal para aplicaciones en tiempo real. Incorpora notables mejoras arquitectónicas, como el módulo de concatenación bidireccional (BiC) y una estrategia de formación asistida por anclaje (AAT). Estas innovaciones proporcionan un aumento sustancial del rendimiento con una degradación mínima de la velocidad, lo que convierte a YOLOv6 en una opción competitiva para las tareas de detección de objetos.

¿Cómo mejora el rendimiento el módulo de concatenación bidireccional (BiC) de YOLOv6?

El módulo de concatenación bidireccional (BiC) de YOLOv6 mejora las señales de localización en el cuello del detector, ofreciendo mejoras de rendimiento con un impacto insignificante en la velocidad. Este módulo combina eficazmente diferentes mapas de características, aumentando la capacidad del modelo para detectar objetos con precisión. Para más detalles sobre las características de YOLOv6, consulte la sección Características principales.

¿Cómo puedo entrenar un modelo YOLOv6 utilizando Ultralytics?

Puede entrenar un modelo YOLOv6 utilizando Ultralytics con los sencillos comandos Python o CLI . Por ejemplo:

Ejemplo

from ultralytics import YOLO

# Build a YOLOv6n model from scratch
model = YOLO("yolov6n.yaml")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640

Para más información, visite la página del Tren.

¿Cuáles son las distintas versiones de YOLOv6 y sus parámetros de rendimiento?

YOLOv6 ofrece varias versiones, cada una optimizada para diferentes requisitos de rendimiento:

  • YOLOv6-N: 37,5% AP a 1187 FPS
  • YOLOv6-S: 45,0% AP a 484 FPS
  • YOLOv6-M: 50,0% AP a 226 FPS
  • YOLOv6-L: 52,8% AP a 116 FPS
  • YOLOv6-L6: precisión de vanguardia en escenarios en tiempo real

Estos modelos se evalúan en el conjunto de datos COCO utilizando un NVIDIA T4 GPU. Para más información sobre las métricas de rendimiento, consulte la sección Métricas de rendimiento.

¿En qué beneficia a YOLOv6 la estrategia de formación asistida por anclaje (AAT)?

El entrenamiento asistido por anclas (AAT) de YOLOv6 combina elementos de los enfoques basados en anclas y sin anclas, mejorando las capacidades de detección del modelo sin comprometer la eficacia de la inferencia. Esta estrategia aprovecha las anclas durante el entrenamiento para mejorar las predicciones del cuadro delimitador, lo que hace que YOLOv6 sea eficaz en diversas tareas de detección de objetos.

¿Qué modos operativos admiten los modelos YOLOv6 en Ultralytics?

YOLOv6 admite varios modos operativos, como Inferencia, Validación, Formación y Exportación. Esta flexibilidad permite a los usuarios explotar al máximo las capacidades del modelo en diferentes escenarios. Consulte la sección Tareas y modos compatibles para obtener una descripción detallada de cada modo.

Creado hace 1 año ✏️ Actualizado hace 2 meses

Comentarios