Saltar al contenido

Ultralytics Modos YOLO11

Ultralytics YOLO ecosistema e integraciones

Introducción

Ultralytics YOLO11 no es sólo otro modelo de detección de objetos; es un marco versátil diseñado para cubrir todo el ciclo de vida de los modelos de aprendizaje automático: desde la ingestión de datos y el entrenamiento del modelo hasta la validación, el despliegue y el seguimiento en el mundo real. Cada modo sirve a un propósito específico y está diseñado para ofrecerte la flexibilidad y eficacia necesarias para diferentes tareas y casos de uso.



Observa: Ultralytics Tutorial de Modos: Entrenar, Validar, Predecir, Exportar y Comparar.

Los modos de un vistazo

Comprender los diferentes modos que admite Ultralytics YOLO11 es fundamental para sacar el máximo partido a tus modelos:

  • Modo Entrenar: Afina tu modelo en conjuntos de datos personalizados o precargados.
  • Modo Val: Un punto de control posterior al entrenamiento para validar el rendimiento del modelo.
  • Modo Predecir: Libera el poder predictivo de tu modelo con datos del mundo real.
  • Modo exportación: Prepara tu modelo para el despliegue en varios formatos.
  • Modo Seguimiento: Amplía tu modelo de detección de objetos a aplicaciones de seguimiento en tiempo real.
  • Modo Benchmark: Analiza la velocidad y precisión de tu modelo en diversos entornos de implantación.

Esta completa guía pretende darte una visión general y práctica de cada modo, ayudándote a aprovechar todo el potencial de YOLO11.

Tren

El modo Entrenar se utiliza para entrenar un modelo YOLO11 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento consiste en optimizar los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos de una imagen.

Ejemplos de trenes

Val

El modo Val se utiliza para validar un modelo YOLO11 después de haberlo entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y su rendimiento de generalización. Este modo puede utilizarse para ajustar los hiperparámetros del modelo con el fin de mejorar su rendimiento.

Val Ejemplos

Predecir

El modo Predecir se utiliza para hacer predicciones utilizando un modelo YOLO11 entrenado en nuevas imágenes o vídeos. En este modo, el modelo se carga desde un archivo de control, y el usuario puede proporcionar imágenes o vídeos para realizar la inferencia. El modelo predice las clases y ubicaciones de los objetos en las imágenes o vídeos de entrada.

Predecir Ejemplos

Exportar

El modo Exportar se utiliza para exportar un modelo YOLO11 a un formato que pueda utilizarse para su despliegue. En este modo, el modelo se convierte a un formato que pueda ser utilizado por otras aplicaciones de software o dispositivos de hardware. Este modo es útil cuando se despliega el modelo en entornos de producción.

Ejemplos de exportación

Pista

El modo Seguimiento se utiliza para seguir objetos en tiempo real utilizando un modelo YOLO11. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar un flujo de vídeo en directo para realizar el seguimiento de objetos en tiempo real. Este modo es útil para aplicaciones como los sistemas de vigilancia o los coches autoconducidos.

Ejemplos de vías

Punto de referencia

El modo Benchmark se utiliza para perfilar la velocidad y precisión de varios formatos de exportación para YOLO11. Los puntos de referencia proporcionan información sobre el tamaño del formato exportado, su mAP50-95 métricas (para detección de objetos, segmentación y pose) o accuracy_top5 métricas (para la clasificación), y el tiempo de inferencia en milisegundos por imagen en varios formatos como ONNX, OpenVINO, TensorRT, y otros. Esta información puede ayudar a los usuarios a elegir el formato de exportación óptimo para su caso de uso específico en función de sus requisitos de velocidad y precisión.

Ejemplos de puntos de referencia

PREGUNTAS FRECUENTES

¿Cómo entreno un modelo personalizado de detección de objetos con Ultralytics YOLO11?

Entrenar un modelo personalizado de detección de objetos con Ultralytics YOLO11 implica utilizar el modo de entrenamiento. Necesitas un conjunto de datos formateado en YOLO , que contenga imágenes y los archivos de anotación correspondientes. Utiliza el siguiente comando para iniciar el proceso de entrenamiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Para obtener instrucciones más detalladas, puedes consultar la Guía del trenUltralytics .

¿Qué métricas utiliza Ultralytics YOLO11 para validar el rendimiento del modelo?

Ultralytics YOLO11 utiliza varias métricas durante el proceso de validación para evaluar el rendimiento del modelo. Entre ellas se incluyen:

  • mAP (Precisión media): Evalúa la precisión de la detección de objetos.
  • IOU (Intersección sobre Unión): Mide el solapamiento entre las cajas delimitadoras predichas y las de la verdad sobre el terreno.
  • Precisión y Recuperación: La precisión mide la relación entre las detecciones de verdaderos positivos y el total de positivos detectados, mientras que la recuperación mide la relación entre las detecciones de verdaderos positivos y el total de positivos reales.

Puedes ejecutar el siguiente comando para iniciar la validación:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Consulta la Guía de validación para más detalles.

¿Cómo puedo exportar mi modelo YOLO11 para desplegarlo?

Ultralytics YOLO11 ofrece funciones de exportación para convertir tu modelo entrenado en varios formatos de despliegue, como ONNX, TensorRT, CoreML, etc. Utiliza el siguiente ejemplo para exportar tu modelo:

Ejemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

En la Guía de Exportación encontrarás los pasos detallados para cada formato de exportación.

¿Cuál es la finalidad del modo "benchmark" en Ultralytics YOLO11?

El modo Benchmark de Ultralytics YOLO11 se utiliza para analizar la velocidad y la precisión de varios formatos de exportación como ONNX, TensorRT y OpenVINO. Proporciona métricas como el tamaño del modelo, mAP50-95 para la detección de objetos, y el tiempo de inferencia en diferentes configuraciones de hardware, ayudándote a elegir el formato más adecuado para tus necesidades de implantación.

Ejemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para más detalles, consulta la Guía de evaluación comparativa.

¿Cómo puedo realizar el seguimiento de objetos en tiempo real utilizando Ultralytics YOLO11?

El seguimiento de objetos en tiempo real puede conseguirse utilizando el modo de seguimiento de Ultralytics YOLO11. Este modo amplía las capacidades de detección de objetos para rastrear objetos a través de fotogramas de vídeo o transmisiones en directo. Utiliza el siguiente ejemplo para activar el seguimiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener instrucciones detalladas, visita la Guía de la Pista.

📅 C reado hace 1 año ✏️ Actualizado hace 1 mes

Comentarios