Ir al contenido

YOLOv3, YOLOv3-Ultralytics, y YOLOv3u

Visión general

Este documento presenta una visión general de tres modelos de detección de objetos estrechamente relacionados, a saber, YOLOv3, YOLOv3-Ultralytics, y YOLOv3u.

  1. YOLOv3: Es la tercera versión del algoritmo de detección de objetos You Only Look Once (YOLO). Desarrollado originalmente por Joseph Redmon, YOLOv3 mejoró a sus predecesores introduciendo funciones como las predicciones multiescala y tres tamaños diferentes de núcleos de detección.

  2. YOLOv3-Ultralytics: Esta es la implementación de Ultralytics del modelo YOLOv3. Reproduce la arquitectura original de YOLOv3 y ofrece funcionalidades adicionales, como soporte para más modelos preentrenados y opciones de personalización más sencillas.

  3. YOLOv3u: Se trata de una versión actualizada de YOLOv3-Ultralytics que incorpora la cabeza de división sin anclajes ni objetos utilizada en los modelos de YOLOv8 . YOLOv3u mantiene la misma arquitectura de columna vertebral y cuello que YOLOv3, pero con la cabeza de detección actualizada de YOLOv8.

Ultralytics YOLOv3

Características principales

  • YOLOv3: Introdujo el uso de tres escalas diferentes para la detección, aprovechando tres tamaños distintos de núcleos de detección: 13x13, 26x26 y 52x52. Esto mejoró significativamente la precisión de la detección de objetos de diferentes tamaños. Además, YOLOv3 añadió funciones como predicciones multietiqueta para cada cuadro delimitador y una red extractora de características mejorada.

  • YOLOv3-Ultralytics: Ultralytics La implementación de YOLOv3 proporciona el mismo rendimiento que el modelo original pero viene con soporte añadido para más modelos preentrenados, métodos de entrenamiento adicionales y opciones de personalización más sencillas. Esto lo hace más versátil y fácil de usar para aplicaciones prácticas.

  • YOLOv3u: Este modelo actualizado incorpora el cabezal dividido sin anclajes ni objetos de YOLOv8. Al eliminar la necesidad de cajas de anclaje y puntuaciones de objetos predefinidas, este diseño de cabezal de detección puede mejorar la capacidad del modelo para detectar objetos de distintos tamaños y formas. Esto hace que YOLOv3u sea más robusto y preciso en las tareas de detección de objetos.

Tareas y modos compatibles

La serie YOLOv3, que incluye YOLOv3, YOLOv3-Ultralytics, y YOLOv3u, está diseñada específicamente para tareas de detección de objetos. Estos modelos son famosos por su eficacia en diversos escenarios del mundo real, equilibrando precisión y velocidad. Cada variante ofrece características y optimizaciones únicas, lo que las hace adecuadas para una amplia gama de aplicaciones.

Los tres modelos admiten un amplio conjunto de modos, lo que garantiza su versatilidad en las distintas fases de implantación y desarrollo del modelo. Estos modos incluyen Inferencia, Validación, Entrenamiento y Exportación, proporcionando a los usuarios un completo conjunto de herramientas para la detección eficaz de objetos.

Tipo de modelo Tareas admitidas Inferencia Validación Formación Exportar
YOLOv3 Detección de objetos
YOLOv3-Ultralytics Detección de objetos
YOLOv3u Detección de objetos

Esta tabla proporciona una visión general de las capacidades de cada variante de YOLOv3, destacando su versatilidad e idoneidad para diversas tareas y modos operativos en los flujos de trabajo de detección de objetos.

Ejemplos de uso

Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLOv3. Para obtener documentación completa sobre estos y otros modos, consulte las páginas de documentación Predicción, Entrenamiento, Val y Exportación.

Ejemplo

PyTorch preentrenado *.pt así como la configuración *.yaml pueden pasarse a la función YOLO() para crear una instancia del modelo en python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv3n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI para ejecutar directamente los modelos:

# Load a COCO-pretrained YOLOv3n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv3n model and run inference on the 'bus.jpg' image
yolo predict model=yolov3n.pt source=path/to/bus.jpg

Citas y agradecimientos

Si utiliza YOLOv3 en su investigación, cite los artículos originales de YOLO y el repositorio Ultralytics YOLOv3:

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Gracias a Joseph Redmon y Ali Farhadi por desarrollar el YOLOv3 original.

PREGUNTAS FRECUENTES

¿Cuáles son las diferencias entre YOLOv3, YOLOv3-Ultralytics, y YOLOv3u?

YOLOv3 es la tercera iteración del algoritmo de detección de objetos YOLO (You Only Look Once) desarrollado por Joseph Redmon, conocido por su equilibrio entre precisión y velocidad, utilizando tres escalas diferentes (13x13, 26x26 y 52x52) para las detecciones. YOLOv3-Ultralytics es Ultralytics' adaptación de YOLOv3 que añade soporte para más modelos pre-entrenados y facilita la personalización del modelo. YOLOv3u es una variante mejorada de YOLOv3-Ultralytics, que integra la cabeza dividida sin anclajes ni objetos de YOLOv8, mejorando la robustez y precisión de la detección para varios tamaños de objetos. Para más detalles sobre las variantes, consulte la serie YOLOv3.

¿Cómo puedo entrenar un modelo YOLOv3 utilizando Ultralytics?

Entrenar un modelo YOLOv3 con Ultralytics es sencillo. Puede entrenar el modelo utilizando Python o CLI:

Ejemplo

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLOv3n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640

Para obtener opciones y directrices de formación más completas, visite nuestra documentación sobre el modo de formación.

¿Qué hace que YOLOv3u sea más preciso en las tareas de detección de objetos?

YOLOv3u mejora a YOLOv3 y YOLOv3-Ultralytics al incorporar el cabezal dividido sin anclajes ni objetos utilizado en los modelos YOLOv8 . Esta mejora elimina la necesidad de cajas de anclaje y puntuaciones de objectness predefinidas, mejorando su capacidad para detectar objetos de distintos tamaños y formas con mayor precisión. Esto convierte a YOLOv3u en la mejor opción para tareas complejas y diversas de detección de objetos. Para más información, consulte la sección Por qué YOLOv3u.

¿Cómo puedo utilizar los modelos YOLOv3 para la inferencia?

Puede realizar inferencias utilizando modelos YOLOv3 mediante scripts Python o comandos CLI :

Ejemplo

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Run inference with the YOLOv3n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
# Load a COCO-pretrained YOLOv3n model and run inference on the 'bus.jpg' image
yolo predict model=yolov3n.pt source=path/to/bus.jpg

Consulte la documentación del modo Inferencia para obtener más detalles sobre la ejecución de modelos YOLO .

¿Qué tareas son compatibles con YOLOv3 y sus variantes?

YOLOv3, YOLOv3-Ultralytics, y YOLOv3u soportan principalmente tareas de detección de objetos. Estos modelos pueden utilizarse para varias etapas de despliegue y desarrollo de modelos, como Inferencia, Validación, Formación y Exportación. Para obtener un conjunto completo de tareas compatibles y detalles más detallados, visite nuestra documentación sobre tareas de detección de objetos.

¿Dónde puedo encontrar recursos para citar YOLOv3 en mi investigación?

Si utiliza YOLOv3 en su investigación, por favor cite los artículos originales de YOLO y el repositorio Ultralytics YOLOv3. Ejemplo de cita BibTeX:

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Para más detalles sobre las citas, consulte la sección Citas y agradecimientos.

Creado hace 1 año ✏️ Actualizado hace 2 meses

Comentarios