Ir al contenido

Modos de Ultralytics YOLO11

Ecosistema e integraciones de Ultralytics YOLO

Introducción

Ultralytics YOLO11 no es solo otro modelo de detección de objetos; es un framework versátil diseñado para cubrir todo el ciclo de vida de los modelos de aprendizaje automático, desde la ingesta de datos y el entrenamiento del modelo hasta la validación, la implementación y el seguimiento en el mundo real. Cada modo tiene un propósito específico y está diseñado para ofrecerte la flexibilidad y la eficiencia necesarias para diferentes tareas y casos de uso.



Ver: Tutorial de modos de Ultralytics: Entrenar, Validar, Predecir, Exportar & Benchmark.

Modos en un vistazo

Comprender los diferentes modos que soporta Ultralytics YOLO11 es fundamental para sacar el máximo provecho de tus modelos:

  • Modo Train: Ajusta tu modelo en conjuntos de datos personalizados o precargados.
  • Modo Val: Un punto de control posterior al entrenamiento para validar el rendimiento del modelo.
  • Modo Predict: Libera el poder predictivo de tu modelo en datos del mundo real.
  • Modo Export: Prepara tu modelo para su implementación en varios formatos.
  • Modo Track: Extiende tu modelo de detección de objetos a aplicaciones de seguimiento en tiempo real.
  • Modo Benchmark: Analiza la velocidad y la precisión de tu modelo en diversos entornos de implementación.

Esta guía completa tiene como objetivo ofrecerte una visión general e información práctica sobre cada modo, ayudándote a aprovechar todo el potencial de YOLO11.

Entrenar

El modo de entrenamiento se utiliza para entrenar un modelo YOLO11 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento implica la optimización de los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos en una imagen. El entrenamiento es esencial para crear modelos que puedan reconocer objetos específicos relevantes para su aplicación.

Ejemplos de Train

Val

El modo Val se utiliza para validar un modelo YOLO11 después de haber sido entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y rendimiento de generalización. La validación ayuda a identificar problemas potenciales como el sobreajuste y proporciona métricas como la Precisión Media Promedio (mAP) para cuantificar el rendimiento del modelo. Este modo es crucial para ajustar los hiperparámetros y mejorar la eficacia general del modelo.

Ejemplos de Val

Predecir

El modo de predicción se utiliza para realizar predicciones utilizando un modelo YOLO11 entrenado en nuevas imágenes o vídeos. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar imágenes o vídeos para realizar la inferencia. El modelo identifica y localiza objetos en los medios de entrada, preparándolo para aplicaciones del mundo real. El modo de predicción es la puerta de entrada para aplicar su modelo entrenado para resolver problemas prácticos.

Ejemplos de Predict

Exportar

El modo de exportación se utiliza para convertir un modelo YOLO11 a formatos adecuados para la implementación en diferentes plataformas y dispositivos. Este modo transforma su modelo PyTorch en formatos optimizados como ONNX, TensorRT o CoreML, lo que permite la implementación en entornos de producción. La exportación es esencial para integrar su modelo con varias aplicaciones de software o dispositivos de hardware, lo que a menudo resulta en mejoras significativas en el rendimiento.

Ejemplos de Export

Seguimiento

El modo de seguimiento amplía las capacidades de detección de objetos de YOLO11 para rastrear objetos a través de fotogramas de vídeo o transmisiones en directo. Este modo es particularmente valioso para aplicaciones que requieren la identificación persistente de objetos, como sistemas de vigilancia o coches autónomos. El modo de seguimiento implementa algoritmos sofisticados como ByteTrack para mantener la identidad del objeto a través de los fotogramas, incluso cuando los objetos desaparecen temporalmente de la vista.

Ejemplos de seguimiento

Benchmark

El modo de evaluación comparativa perfila la velocidad y la precisión de varios formatos de exportación para YOLO11. Este modo proporciona métricas completas sobre el tamaño del modelo, la precisión (mAP50-95 para tareas de detección o accuracy_top5 para clasificación) y el tiempo de inferencia en diferentes formatos como ONNX, OpenVINO y TensorRT. La evaluación comparativa te ayuda a seleccionar el formato de exportación óptimo según tus requisitos específicos de velocidad y precisión en tu entorno de implementación.

Ejemplos de evaluación comparativa

Preguntas frecuentes

¿Cómo puedo entrenar un modelo personalizado de detección de objetos con Ultralytics YOLO11?

El entrenamiento de un modelo de detección de objetos personalizado con Ultralytics YOLO11 implica el uso del modo de entrenamiento. Necesita un conjunto de datos formateado en formato YOLO, que contenga imágenes y los archivos de anotación correspondientes. Utilice el siguiente comando para iniciar el proceso de entrenamiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Para obtener instrucciones más detalladas, puede consultar la Guía de entrenamiento de Ultralytics.

¿Qué métricas utiliza Ultralytics YOLO11 para validar el rendimiento del modelo?

Ultralytics YOLO11 utiliza varias métricas durante el proceso de validación para evaluar el rendimiento del modelo. Éstas incluyen:

  • mAP (precisión media promedio): Esto evalúa la precisión de la detección de objetos.
  • IOU (Intersección sobre Unión): Mide la superposición entre los cuadros delimitadores predichos y los reales.
  • Precisión y Recall: La precisión mide la relación entre las detecciones verdaderas positivas y el total de positivos detectados, mientras que el recall mide la relación entre las detecciones verdaderas positivas y el total de positivos reales.

Puede ejecutar el siguiente comando para iniciar la validación:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Consulte la Guía de validación para obtener más detalles.

¿Cómo puedo exportar mi modelo YOLO11 para su implementación?

Ultralytics YOLO11 ofrece funcionalidad de exportación para convertir su modelo entrenado en varios formatos de implementación, como ONNX, TensorRT, CoreML y más. Utilice el siguiente ejemplo para exportar su modelo:

Ejemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Puede encontrar los pasos detallados para cada formato de exportación en la Guía de exportación.

¿Cuál es el propósito del modo benchmark en Ultralytics YOLO11?

El modo de evaluación comparativa en Ultralytics YOLO11 se utiliza para analizar la velocidad y la precisión de varios formatos de exportación como ONNX, TensorRT y OpenVINO. Proporciona métricas como el tamaño del modelo, mAP50-95 para la detección de objetos y el tiempo de inferencia en diferentes configuraciones de hardware, lo que le ayuda a elegir el formato más adecuado para sus necesidades de implementación.

Ejemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para obtener más detalles, consulte la Guía de evaluación comparativa.

¿Cómo puedo realizar el seguimiento de objetos en tiempo real utilizando Ultralytics YOLO11?

El seguimiento de objetos en tiempo real se puede lograr utilizando el modo de seguimiento en Ultralytics YOLO11. Este modo amplía las capacidades de detección de objetos para rastrear objetos a través de fotogramas de video o transmisiones en vivo. Utilice el siguiente ejemplo para habilitar el seguimiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener instrucciones detalladas, visite la Guía de seguimiento.



📅 Creado hace 1 año ✏️ Actualizado hace 5 meses

Comentarios