Ir al contenido

Ultralytics YOLO11 Modos

Ultralytics YOLO ecosistema e integraciones

Introducción

Ultralytics YOLO11 no es sólo otro modelo de detección de objetos; es un marco versátil diseñado para cubrir todo el ciclo de vida de los modelos de aprendizaje automático, desde la ingesta de datos y el entrenamiento del modelo hasta la validación, el despliegue y el seguimiento en el mundo real. Cada modo sirve a un propósito específico y está diseñado para ofrecerle la flexibilidad y eficiencia necesarias para diferentes tareas y casos de uso.



Observa: Ultralytics Modos Tutorial: Entrenar, Validar, Predecir, Exportar y Comparar.

Resumen de los modos

Comprender los diferentes modos que admite Ultralytics YOLO11 es fundamental para sacar el máximo partido a sus modelos:

  • Modo de entrenamiento: Ajuste su modelo en conjuntos de datos personalizados o precargados.
  • Modo Val: Un punto de control posterior al entrenamiento para validar el rendimiento del modelo.
  • Modo Predicción: Libera el poder predictivo de tu modelo con datos del mundo real.
  • Modo de exportación: Prepara tu modelo para el despliegue en varios formatos.
  • Modo de seguimiento: Amplíe su modelo de detección de objetos a aplicaciones de seguimiento en tiempo real.
  • Modo Benchmark: Analice la velocidad y precisión de su modelo en diversos entornos de implantación.

Esta completa guía pretende ofrecerle una visión general y práctica de cada modo, ayudándole a aprovechar todo el potencial de YOLO11.

Tren

El modo de entrenamiento se utiliza para entrenar un modelo YOLO11 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento consiste en optimizar los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos en una imagen. El entrenamiento es esencial para crear modelos que puedan reconocer objetos específicos relevantes para su aplicación.

Ejemplos de trenes

Val

El modo Val se utiliza para validar un modelo YOLO11 después de haberlo entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y su rendimiento de generalización. La validación ayuda a identificar problemas potenciales como el sobreajuste y proporciona métricas como la Precisión Media (mAP) para cuantificar el rendimiento del modelo. Este modo es crucial para ajustar los hiperparámetros y mejorar la eficacia general del modelo.

Val Ejemplos

Predecir

El modo Predecir se utiliza para realizar predicciones utilizando un modelo YOLO11 entrenado sobre nuevas imágenes o vídeos. En este modo, el modelo se carga desde un archivo de control y el usuario puede proporcionar imágenes o vídeos para realizar la inferencia. El modelo identifica y localiza objetos en los medios de entrada, lo que lo prepara para aplicaciones del mundo real. El modo Predecir es la puerta de entrada a la aplicación de su modelo entrenado para resolver problemas prácticos.

Predecir Ejemplos

Exportar

El modo de exportación se utiliza para convertir un modelo YOLO11 a formatos adecuados para su despliegue en diferentes plataformas y dispositivos. Este modo transforma tu modelo PyTorch en formatos optimizados como ONNX, TensorRT, o CoreML, permitiendo el despliegue en entornos de producción. La exportación es esencial para la integración de su modelo con diversas aplicaciones de software o dispositivos de hardware, a menudo resultando en mejoras significativas en el rendimiento.

Ejemplos de exportación

Pista

El modo Track amplía las capacidades de detección de objetos de YOLO11 para rastrear objetos a través de fotogramas de vídeo o secuencias en directo. Este modo es especialmente valioso para aplicaciones que requieren una identificación persistente de objetos, como los sistemas de vigilancia o los coches autoconducidos. El modo Track implementa sofisticados algoritmos como ByteTrack para mantener la identidad de los objetos a través de los fotogramas, incluso cuando desaparecen temporalmente de la vista.

Ejemplos de vías

Punto de referencia

El modo de evaluación comparativa perfila la velocidad y precisión de varios formatos de exportación para YOLO11. Este modo proporciona métricas completas sobre el tamaño del modelo, la precisión (mAP50-95 para tareas de detección o accuracy_top5 para clasificación) y el tiempo de inferencia en distintos formatos como ONNX, OpenVINOy TensorRT. La evaluación comparativa le ayuda a seleccionar el formato de exportación óptimo en función de sus requisitos específicos de velocidad y precisión en su entorno de despliegue.

Ejemplos de puntos de referencia

PREGUNTAS FRECUENTES

¿Cómo entreno un modelo de detección de objetos personalizado con Ultralytics YOLO11 ?

Para entrenar un modelo de detección de objetos personalizado con Ultralytics YOLO11 es necesario utilizar el modo de entrenamiento. Necesita un conjunto de datos formateado en YOLO , que contenga imágenes y los archivos de anotación correspondientes. Utilice el siguiente comando para iniciar el proceso de entrenamiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Para obtener instrucciones más detalladas, puede consultar la Guía del trenUltralytics .

¿Qué métricas utiliza Ultralytics YOLO11 para validar el rendimiento del modelo?

Ultralytics YOLO11 utiliza varias métricas durante el proceso de validación para evaluar el rendimiento del modelo. Entre ellas se incluyen:

  • mAP (Precisión media): Evalúa la precisión de la detección de objetos.
  • IOU (Intersección sobre Unión): Mide el solapamiento entre los cuadros delimitadores predichos y los reales.
  • Precisión y recuperación: La precisión mide la relación entre las detecciones positivas verdaderas y el total de positivas detectadas, mientras que la recuperación mide la relación entre las detecciones positivas verdaderas y el total de positivas reales.

Puede ejecutar el siguiente comando para iniciar la validación:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Consulte la Guía de Validación para más detalles.

¿Cómo puedo exportar mi modelo YOLO11 para desplegarlo?

Ultralytics YOLO11 ofrece la funcionalidad de exportación para convertir su modelo entrenado en varios formatos de despliegue como ONNX, TensorRT, CoreML, y más. Utilice el siguiente ejemplo para exportar su modelo:

Ejemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

En la Guía de exportación encontrará los pasos detallados para cada formato de exportación.

¿Para qué sirve el modo "benchmark" en Ultralytics YOLO11 ?

El modo Benchmark de Ultralytics YOLO11 se utiliza para analizar la velocidad y la precisión de varios formatos de exportación como ONNX, TensorRT y OpenVINO. Proporciona métricas como el tamaño del modelo, mAP50-95 para la detección de objetos y el tiempo de inferencia en diferentes configuraciones de hardware, lo que le ayudará a elegir el formato más adecuado para sus necesidades de implantación.

Ejemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para más detalles, consulte la Guía de evaluación comparativa.

¿Cómo puedo realizar el seguimiento de objetos en tiempo real utilizando Ultralytics YOLO11 ?

El seguimiento de objetos en tiempo real puede realizarse utilizando el modo de seguimiento de Ultralytics YOLO11 . Este modo amplía las capacidades de detección de objetos para realizar un seguimiento de objetos a través de fotogramas de vídeo o transmisiones en directo. Utilice el siguiente ejemplo para activar el seguimiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener instrucciones detalladas, visite la Guía de pistas.

Creado hace 1 año ✏️ Actualizado hace 0 días

Comentarios