Ir al contenido

Modos de Ultralytics YOLO26

Ecosistema e integraciones de Ultralytics YOLO

Introducción

Ultralytics YOLO26 no es solo otro modelo de detección de objetos; es un framework versátil diseñado para cubrir todo el ciclo de vida de los modelos de aprendizaje automático—desde la ingesta de datos y el entrenamiento del modelo hasta la validación, el despliegue y el seguimiento en el mundo real. Cada modo cumple un propósito específico y está diseñado para ofrecerle la flexibilidad y eficiencia necesarias para diferentes tareas y casos de uso.



Ver: Tutorial de modos de Ultralytics: Entrenar, Validar, Predecir, Exportar & Benchmark.

Modos en un vistazo

Comprender los diferentes modos que soporta Ultralytics YOLO26 es fundamental para aprovechar al máximo sus modelos:

  • Modo Train: Ajusta tu modelo en conjuntos de datos personalizados o precargados.
  • Modo Val: Un punto de control posterior al entrenamiento para validar el rendimiento del modelo.
  • Modo Predict: Libera el poder predictivo de tu modelo en datos del mundo real.
  • Modo Export: Prepara tu modelo para su implementación en varios formatos.
  • Modo Track: Extiende tu modelo de detección de objetos a aplicaciones de seguimiento en tiempo real.
  • Modo Benchmark: Analiza la velocidad y la precisión de tu modelo en diversos entornos de implementación.

Esta guía completa tiene como objetivo proporcionarle una visión general y conocimientos prácticos sobre cada modo, ayudándole a aprovechar todo el potencial de YOLO26.

Entrenar

El modo train se utiliza para entrenar un modelo YOLO26 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento implica la optimización de los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos en una imagen. El entrenamiento es esencial para crear modelos que puedan reconocer objetos específicos relevantes para su aplicación.

Ejemplos de Train

Val

El modo val se utiliza para validar un modelo YOLO26 después de haber sido entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y rendimiento de generalización. La validación ayuda a identificar problemas potenciales como el sobreajuste y proporciona métricas como la precisión media promedio (mAP) para cuantificar el rendimiento del modelo. Este modo es crucial para ajustar los hiperparámetros y mejorar la eficacia general del modelo.

Ejemplos de Val

Predecir

El modo predict se utiliza para realizar predicciones con un modelo YOLO26 entrenado en nuevas imágenes o vídeos. En este modo, el modelo se carga desde un archivo de checkpoint, y el usuario puede proporcionar imágenes o vídeos para realizar la inferencia. El modelo identifica y localiza objetos en los medios de entrada, preparándolo para aplicaciones del mundo real. El modo predict es la puerta de entrada para aplicar su modelo entrenado a la resolución de problemas prácticos.

Ejemplos de Predict

Exportar

El modo export se utiliza para convertir un modelo YOLO26 a formatos adecuados para su despliegue en diferentes plataformas y dispositivos. Este modo transforma su modelo PyTorch en formatos optimizados como ONNX, TensorRT o CoreML, permitiendo el despliegue en entornos de producción. La exportación es esencial para integrar su modelo con diversas aplicaciones de software o dispositivos de hardware, lo que a menudo resulta en mejoras significativas de rendimiento.

Ejemplos de Export

Seguimiento

El modo track amplía las capacidades de detección de objetos de YOLO26 para track objetos a través de fotogramas de vídeo o transmisiones en vivo. Este modo es particularmente valioso para aplicaciones que requieren identificación persistente de objetos, como sistemas de vigilancia o coches autónomos. El modo track implementa algoritmos sofisticados como ByteTrack para mantener la identidad del objeto a través de los fotogramas, incluso cuando los objetos desaparecen temporalmente de la vista.

Ejemplos de seguimiento

Benchmark

El modo benchmark perfila la velocidad y precisión de varios formatos de exportación para YOLO26. Este modo proporciona métricas completas sobre el tamaño del modelo, la precisión (mAP50-95 para tareas de detección o accuracy_top5 para clasificación) y el tiempo de inferencia en diferentes formatos como ONNX, OpenVINO y TensorRT. El benchmarking le ayuda a seleccionar el formato de exportación óptimo según sus requisitos específicos de velocidad y precisión en su entorno de despliegue.

Ejemplos de evaluación comparativa

Preguntas frecuentes

¿Cómo entreno un modelo de detección de objetos personalizado con Ultralytics YOLO26?

El entrenamiento de un modelo de detección de objetos personalizado con Ultralytics YOLO26 implica el uso del modo train. Se requiere un conjunto de datos en formato YOLO, que contenga imágenes y sus archivos de anotación correspondientes. Utilice el siguiente comando para iniciar el proceso de entrenamiento:

Ejemplo

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640

Para obtener instrucciones más detalladas, puede consultar la Guía de entrenamiento de Ultralytics.

¿Qué métricas utiliza Ultralytics YOLO26 para validar el rendimiento del modelo?

Ultralytics YOLO26 emplea diversas métricas durante el proceso de validación para evaluar el rendimiento del modelo. Estas incluyen:

  • mAP (Precisión Media Promedio): Esto evalúa la precisión de la detección de objetos.
  • IOU (Intersección sobre Unión): Mide la superposición entre los cuadros delimitadores predichos y los reales.
  • Precisión y Recall: La precisión mide la relación entre las detecciones verdaderas positivas y el total de positivos detectados, mientras que el recall mide la relación entre las detecciones verdaderas positivas y el total de positivos reales.

Puede ejecutar el siguiente comando para iniciar la validación:

Ejemplo

from ultralytics import YOLO

# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml

Consulte la Guía de validación para obtener más detalles.

¿Cómo puedo exportar mi modelo YOLO26 para su despliegue?

Ultralytics YOLO26 ofrece funcionalidad de exportación para convertir su modelo entrenado a diversos formatos de despliegue como ONNX, TensorRT, CoreML y otros. Utilice el siguiente ejemplo para exportar su modelo:

Ejemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo26n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx

Puede encontrar los pasos detallados para cada formato de exportación en la Guía de exportación.

¿Cuál es el propósito del modo benchmark en Ultralytics YOLO26?

El modo benchmark en Ultralytics YOLO26 se utiliza para analizar la velocidad y precisión de varios formatos de exportación como ONNX, TensorRT y OpenVINO. Proporciona métricas como el tamaño del modelo, mAP50-95 para la detección de objetos y el tiempo de inferencia en diferentes configuraciones de hardware, lo que le ayuda a elegir el formato más adecuado para sus necesidades de implementación.

Ejemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para obtener más detalles, consulte la Guía de evaluación comparativa.

¿Cómo puedo realizar el seguimiento de objetos en tiempo real utilizando Ultralytics YOLO26?

El seguimiento de objetos en tiempo real se puede lograr utilizando el modo track en Ultralytics YOLO26. Este modo amplía las capacidades de detección de objetos para track objetos a través de fotogramas de vídeo o transmisiones en vivo. Utilice el siguiente ejemplo para habilitar el seguimiento:

Ejemplo

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4

Para obtener instrucciones detalladas, visite la Guía de seguimiento.



📅 Creado hace 2 años ✏️ Actualizado hace 4 días
glenn-jocherpderrengerleonnilMatthewNoyceRizwanMunawar

Comentarios