Saltar al contenido

Modelo de entrenamiento con Ultralytics YOLO

Ultralytics YOLO ecosistema e integraciones

Introducci贸n

Entrenar un modelo de aprendizaje profundo implica alimentarlo con datos y ajustar sus par谩metros para que pueda hacer predicciones precisas. El modo Entrenar de Ultralytics YOLOv8 est谩 dise帽ado para un entrenamiento eficaz y eficiente de los modelos de detecci贸n de objetos, utilizando plenamente las capacidades del hardware moderno. Esta gu铆a pretende cubrir todos los detalles que necesitas para empezar a entrenar tus propios modelos utilizando el s贸lido conjunto de funciones de YOLOv8.



Observa: C贸mo entrenar un modelo YOLOv8 con tu conjunto de datos personalizado en Google Colab.

驴Por qu茅 elegir Ultralytics YOLO para la formaci贸n?

He aqu铆 algunas razones de peso para optar por el modo Tren de YOLOv8:

  • Eficiencia: Saca el m谩ximo partido a tu hardware, tanto si utilizas una sola GPU como si escalas varias.
  • Versatilidad: Entr茅nate en conjuntos de datos personalizados, adem谩s de en otros f谩cilmente disponibles como COCO, VOC e ImageNet.
  • F谩cil de usar: interfaces sencillas pero potentes en CLI y Python para una experiencia de formaci贸n sencilla.
  • Flexibilidad de hiperpar谩metros: Una amplia gama de hiperpar谩metros personalizables para afinar el rendimiento del modelo.

Caracter铆sticas principales del Modo Tren

Las siguientes son algunas caracter铆sticas notables del modo Tren de YOLOv8:

  • Descarga autom谩tica de conjuntos de datos: Los conjuntos de datos est谩ndar como COCO, VOC e ImageNet se descargan autom谩ticamente en el primer uso.
  • Soporte Multi-GPU: Escala tus esfuerzos de entrenamiento sin problemas a trav茅s de m煤ltiples GPUs para agilizar el proceso.
  • Configuraci贸n de hiperpar谩metros: La opci贸n de modificar hiperpar谩metros mediante archivos de configuraci贸n YAML o argumentos CLI .
  • Visualizaci贸n y seguimiento: Seguimiento en tiempo real de las m茅tricas de formaci贸n y visualizaci贸n del proceso de aprendizaje para una mejor comprensi贸n.

Consejo

  • YOLOv8 conjuntos de datos como COCO, VOC, ImageNet y muchos otros se descargan autom谩ticamente en el primer uso, es decir yolo train data=coco.yaml

Ejemplos de uso

Entrena YOLOv8n en el conjunto de datos COCO8 durante 100 茅pocas con un tama帽o de imagen de 640. El dispositivo de entrenamiento se puede especificar mediante la opci贸n device argumento. Si no se pasa ning煤n argumento GPU device=0 se utilizar谩 si est谩 disponible, de lo contrario device='cpu' se utilizar谩n. Consulta la secci贸n Argumentos m谩s abajo para ver una lista completa de los argumentos de entrenamiento.

Ejemplo de entrenamiento con una sola GPU y CPU

El dispositivo se determina autom谩ticamente. Si hay una GPU disponible, se utilizar谩; de lo contrario, el entrenamiento se iniciar谩 en la CPU.

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.yaml')  # build a new model from YAML
model = YOLO('yolov8n.pt')  # load a pretrained model (recommended for training)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # build from YAML and transfer weights

# Train the model
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Formaci贸n Multi-GPU

El entrenamiento Multi-GPU permite una utilizaci贸n m谩s eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento entre varias GPU. Esta funci贸n est谩 disponible tanto a trav茅s de la API Python como de la interfaz de l铆nea de comandos. Para activar el entrenamiento multi-GPU, especifica los ID de dispositivo GPU que deseas utilizar.

Ejemplo de entrenamiento multi-GPU

Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1 utiliza los siguientes comandos. Ampl铆a a GPUs adicionales seg煤n sea necesario.

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640, device=[0, 1])
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1

Formaci贸n Apple M1 y M2 MPS

Con la compatibilidad con los chips Apple M1 y M2 integrados en los modelos Ultralytics YOLO , ahora es posible entrenar tus modelos en dispositivos que utilicen el potente marco Metal Performance Shaders (MPS). El MPS ofrece una forma de alto rendimiento de ejecutar tareas de c谩lculo y procesamiento de im谩genes en el silicio personalizado de Apple.

Para activar el entrenamiento en los chips Apple M1 y M2, debes especificar "mps" como dispositivo al iniciar el proceso de entrenamiento. A continuaci贸n se muestra un ejemplo de c贸mo puedes hacerlo en Python y a trav茅s de la l铆nea de comandos:

Ejemplo de formaci贸n MPS

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640, device='mps')
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps

Al tiempo que se aprovecha la potencia de c谩lculo de los chips M1/M2, esto permite un procesamiento m谩s eficiente de las tareas de entrenamiento. Para una orientaci贸n m谩s detallada y opciones de configuraci贸n avanzadas, consulta la documentaci贸n dePyTorch MPS.

Reanudaci贸n de los cursos interrumpidos

Reanudar el entrenamiento a partir de un estado previamente guardado es una funci贸n crucial cuando se trabaja con modelos de aprendizaje profundo. Esto puede resultar 煤til en varias situaciones, como cuando el proceso de entrenamiento se ha interrumpido inesperadamente, o cuando deseas continuar entrenando un modelo con nuevos datos o durante m谩s 茅pocas.

Cuando se reanuda el entrenamiento, Ultralytics YOLO carga los pesos del 煤ltimo modelo guardado y tambi茅n restaura el estado del optimizador, el programador de la tasa de aprendizaje y el n煤mero de 茅pocas. Esto te permite continuar el proceso de entrenamiento sin problemas desde donde se dej贸.

Puedes reanudar f谩cilmente el entrenamiento en Ultralytics YOLO configurando resume argumento para True al llamar al train y especificando la ruta de acceso al m茅todo .pt que contiene los pesos del modelo parcialmente entrenado.

A continuaci贸n se muestra un ejemplo de c贸mo reanudar un entrenamiento interrumpido utilizando Python y a trav茅s de la l铆nea de comandos:

Ejemplo de formaci贸n para el curr铆culum

from ultralytics import YOLO

# Load a model
model = YOLO('path/to/last.pt')  # load a partially trained model

# Resume training
results = model.train(resume=True)
# Resume an interrupted training
yolo train resume model=path/to/last.pt

Estableciendo resume=Truela train continuar谩 el entrenamiento desde donde lo dej贸, utilizando el estado almacenado en el archivo "ruta/a/煤ltimo.pt". Si la funci贸n resume se omite o se establece en Falsela train iniciar谩 una nueva sesi贸n de entrenamiento.

Recuerda que los puntos de control se guardan al final de cada 茅poca por defecto, o a intervalos fijos utilizando la opci贸n save_period por lo que debes completar al menos 1 茅poca para reanudar una carrera de entrenamiento.

Ajustes del tren

Los ajustes de entrenamiento de los modelos YOLO abarcan diversos hiperpar谩metros y configuraciones utilizados durante el proceso de entrenamiento. Estos ajustes influyen en el rendimiento, la velocidad y la precisi贸n del modelo. Los ajustes de entrenamiento clave incluyen el tama帽o del lote, la velocidad de aprendizaje, el impulso y el decaimiento del peso. Adem谩s, la elecci贸n del optimizador, la funci贸n de p茅rdida y la composici贸n del conjunto de datos de entrenamiento pueden influir en el proceso de entrenamiento. El ajuste cuidadoso y la experimentaci贸n con estos ajustes son cruciales para optimizar el rendimiento.

Argumento Por defecto Descripci贸n
model None Especifica el archivo modelo para el entrenamiento. Acepta una ruta a .pt modelo preentrenado o un .yaml archivo de configuraci贸n. Esencial para definir la estructura del modelo o inicializar los pesos.
data None Ruta al archivo de configuraci贸n del conjunto de datos (por ejemplo, coco8.yaml). Este archivo contiene par谩metros espec铆ficos del conjunto de datos, incluidas las rutas a los datos de entrenamiento y validaci贸n, los nombres de las clases y el n煤mero de clases.
epochs 100 N煤mero total de 茅pocas de entrenamiento. Cada 茅poca representa una pasada completa por todo el conjunto de datos. Ajustar este valor puede afectar a la duraci贸n del entrenamiento y al rendimiento del modelo.
time None Tiempo m谩ximo de entrenamiento en horas. Si se establece, anula la opci贸n epochs para que el entrenamiento se detenga autom谩ticamente tras la duraci贸n especificada. 脷til para situaciones de entrenamiento con limitaciones de tiempo.
patience 100 N煤mero de 茅pocas que hay que esperar sin que mejoren las m茅tricas de validaci贸n antes de detener el entrenamiento anticipadamente. Ayuda a evitar el sobreajuste deteniendo el entrenamiento cuando el rendimiento se estabiliza.
batch 16 Tama帽o del lote para el entrenamiento, que indica cu谩ntas im谩genes se procesan antes de actualizar los par谩metros internos del modelo. AutoLote (batch=-1) ajusta din谩micamente el tama帽o del lote en funci贸n de la disponibilidad de memoria en la GPU.
imgsz 640 Tama帽o de imagen objetivo para el entrenamiento. Todas las im谩genes se redimensionan a esta dimensi贸n antes de introducirlas en el modelo. Afecta a la precisi贸n del modelo y a la complejidad computacional.
save True Permite guardar los puntos de control del entrenamiento y los pesos finales del modelo. 脷til para reanudar el entrenamiento o el despliegue del modelo.
save_period -1 Frecuencia con la que se guardan los puntos de control del modelo, especificada en 茅pocas. Un valor de -1 desactiva esta funci贸n. 脷til para guardar modelos provisionales durante sesiones de entrenamiento largas.
cache False Activa el almacenamiento en cach茅 de las im谩genes del conjunto de datos en la memoria (True/ram), en disco (disk), o desact铆valo (False). Mejora la velocidad de entrenamiento reduciendo la E/S de disco a costa de un mayor uso de memoria.
device None Especifica el dispositivo o dispositivos de c谩lculo para el entrenamiento: una 煤nica GPU (device=0), varias GPU (device=0,1), CPU (device=cpu), o MPS para el silicio de Apple (device=mps).
workers 8 N煤mero de subprocesos de trabajo para la carga de datos (por RANK si el entrenamiento es Multi-GPU). Influye en la velocidad de preprocesamiento de datos y alimentaci贸n del modelo, especialmente 煤til en configuraciones multi-GPU.
project None Nombre del directorio del proyecto donde se guardan los resultados del entrenamiento. Permite almacenar de forma organizada los distintos experimentos.
name None Nombre de la ejecuci贸n de entrenamiento. Se utiliza para crear un subdirectorio dentro de la carpeta del proyecto, donde se almacenan los registros de entrenamiento y los resultados.
exist_ok False Si es Verdadero, permite sobrescribir un directorio de proyecto/nombre existente. 脷til para la experimentaci贸n iterativa sin necesidad de borrar manualmente las salidas anteriores.
pretrained True Determina si se inicia el entrenamiento a partir de un modelo preentrenado. Puede ser un valor booleano o una cadena de ruta a un modelo espec铆fico desde el que cargar los pesos. Mejora la eficacia del entrenamiento y el rendimiento del modelo.
optimizer 'auto' Elecci贸n del optimizador para el entrenamiento. Las opciones incluyen SGD, Adam, AdamW, NAdam, RAdam, RMSProp etc., o auto para una selecci贸n autom谩tica basada en la configuraci贸n del modelo. Afecta a la velocidad de convergencia y a la estabilidad.
verbose False Activa la salida detallada durante el entrenamiento, proporcionando registros detallados y actualizaciones del progreso. 脷til para depurar y supervisar de cerca el proceso de entrenamiento.
seed 0 Establece la semilla aleatoria para el entrenamiento, garantizando la reproducibilidad de los resultados entre ejecuciones con las mismas configuraciones.
deterministic True Fuerza el uso de algoritmos deterministas, lo que garantiza la reproducibilidad, pero puede afectar al rendimiento y la velocidad debido a la restricci贸n de algoritmos no deterministas.
single_cls False Trata todas las clases de los conjuntos de datos multiclase como una sola clase durante el entrenamiento. 脷til para tareas de clasificaci贸n binaria o cuando te centras en la presencia del objeto m谩s que en la clasificaci贸n.
rect False Permite el entrenamiento rectangular, optimizando la composici贸n del lote para un relleno m铆nimo. Puede mejorar la eficacia y la velocidad, pero puede afectar a la precisi贸n del modelo.
cos_lr False Utiliza un programador de la tasa de aprendizaje coseno, que ajusta la tasa de aprendizaje siguiendo una curva coseno a lo largo de las 茅pocas. Ayuda a gestionar la tasa de aprendizaje para una mejor convergencia.
close_mosaic 10 Desactiva el aumento de datos en mosaico en las 煤ltimas N 茅pocas para estabilizar el entrenamiento antes de finalizarlo. El valor 0 desactiva esta funci贸n.
resume False Reanuda el entrenamiento desde el 煤ltimo punto de control guardado. Carga autom谩ticamente los pesos del modelo, el estado del optimizador y el recuento de 茅pocas, continuando el entrenamiento sin problemas.
amp True Permite el entrenamiento Autom谩tico de Precisi贸n Mixta (AMP), reduciendo el uso de memoria y posiblemente acelerando el entrenamiento con un impacto m铆nimo en la precisi贸n.
fraction 1.0 Especifica la fracci贸n del conjunto de datos que se utilizar谩 para el entrenamiento. Permite entrenar con un subconjunto del conjunto de datos completo, 煤til para experimentos o cuando los recursos son limitados.
profile False Permite perfilar las velocidades de ONNX y TensorRT durante el entrenamiento, 煤til para optimizar el despliegue del modelo.
freeze None Congela las N primeras capas del modelo o capas especificadas por 铆ndice, reduciendo el n煤mero de par谩metros entrenables. 脷til para el ajuste fino o el aprendizaje por transferencia.
lr0 0.01 Tasa de aprendizaje inicial (es decir SGD=1E-2, Adam=1E-3) . El ajuste de este valor es crucial para el proceso de optimizaci贸n, ya que influye en la rapidez con que se actualizan las ponderaciones del modelo.
lrf 0.01 Tasa de aprendizaje final como fracci贸n de la tasa inicial = (lr0 * lrf), que se utiliza junto con los programadores para ajustar el ritmo de aprendizaje a lo largo del tiempo.
momentum 0.937 Factor de impulso para SGD o beta1 para optimizadores Adam, que influye en la incorporaci贸n de gradientes pasados en la actualizaci贸n actual.
weight_decay 0.0005 T茅rmino de regularizaci贸n L2, que penaliza los pesos grandes para evitar el sobreajuste.
warmup_epochs 3.0 N煤mero de 茅pocas para el calentamiento de la tasa de aprendizaje, aumentando gradualmente la tasa de aprendizaje desde un valor bajo hasta la tasa de aprendizaje inicial para estabilizar el entrenamiento desde el principio.
warmup_momentum 0.8 Impulso inicial para la fase de calentamiento, ajust谩ndose gradualmente al impulso establecido durante el periodo de calentamiento.
warmup_bias_lr 0.1 Tasa de aprendizaje de los par谩metros de sesgo durante la fase de calentamiento, que ayuda a estabilizar el entrenamiento del modelo en las 茅pocas iniciales.
box 7.5 Peso del componente de p茅rdida de caja en la funci贸n de p茅rdida, que influye en el 茅nfasis que se pone en predecir con precisi贸n las coordenadas de la caja delimitadora.
cls 0.5 Peso de la p茅rdida de clasificaci贸n en la funci贸n de p茅rdida total, que afecta a la importancia de la predicci贸n correcta de la clase en relaci贸n con otros componentes.
dfl 1.5 Peso de la p茅rdida focal de distribuci贸n, utilizado en algunas versiones de YOLO para una clasificaci贸n de grano fino.
pose 12.0 Peso de la p茅rdida de pose en los modelos entrenados para la estimaci贸n de la pose, lo que influye en la importancia de predecir con precisi贸n los puntos clave de la pose.
kobj 2.0 Ponderaci贸n de la p茅rdida de objetividad del punto clave en los modelos de estimaci贸n de la pose, equilibrando la confianza en la detecci贸n con la precisi贸n de la pose.
label_smoothing 0.0 Aplica el suavizado de etiquetas, suavizando las etiquetas duras a una mezcla de la etiqueta objetivo y una distribuci贸n uniforme sobre las etiquetas, puede mejorar la generalizaci贸n.
nbs 64 Tama帽o nominal del lote para la normalizaci贸n de la p茅rdida.
overlap_mask True Determina si las m谩scaras de segmentaci贸n deben solaparse durante el entrenamiento, aplicable en tareas de segmentaci贸n de instancias.
mask_ratio 4 Relaci贸n de reducci贸n de la muestra para las m谩scaras de segmentaci贸n, que afecta a la resoluci贸n de las m谩scaras utilizadas durante el entrenamiento.
dropout 0.0 Tasa de abandono para la regularizaci贸n en tareas de clasificaci贸n, que evita el sobreajuste omitiendo aleatoriamente unidades durante el entrenamiento.
val True Activa la validaci贸n durante el entrenamiento, lo que permite evaluar peri贸dicamente el rendimiento del modelo en un conjunto de datos distinto.
plots False Genera y guarda gr谩ficos de las m茅tricas de entrenamiento y validaci贸n, as铆 como ejemplos de predicci贸n, proporcionando una visi贸n visual del rendimiento del modelo y de la progresi贸n del aprendizaje.

Ajustes de aumento e hiperpar谩metros

Las t茅cnicas de aumento son esenciales para mejorar la solidez y el rendimiento de los modelos YOLO introduciendo variabilidad en los datos de entrenamiento, lo que ayuda al modelo a generalizar mejor a los datos no vistos. La tabla siguiente describe la finalidad y el efecto de cada argumento de aumento:

Argumento Tipo Por defecto Gama Descripci贸n
hsv_h float 0.015 0.0 - 1.0 Ajusta el tono de la imagen en una fracci贸n de la rueda de color, introduciendo variabilidad crom谩tica. Ayuda al modelo a generalizarse en diferentes condiciones de iluminaci贸n.
hsv_s float 0.7 0.0 - 1.0 Altera la saturaci贸n de la imagen en una fracci贸n, afectando a la intensidad de los colores. 脷til para simular diferentes condiciones ambientales.
hsv_v float 0.4 0.0 - 1.0 Modifica el valor (brillo) de la imagen en una fracci贸n, lo que ayuda a que el modelo funcione bien en distintas condiciones de iluminaci贸n.
degrees float 0.0 -180 - +180 Gira la imagen aleatoriamente dentro del intervalo de grados especificado, mejorando la capacidad del modelo para reconocer objetos en diversas orientaciones.
translate float 0.1 0.0 - 1.0 Traslada la imagen horizontal y verticalmente una fracci贸n del tama帽o de la imagen, lo que ayuda a aprender a detectar objetos parcialmente visibles.
scale float 0.5 >=0.0 Escala la imagen por un factor de ganancia, simulando objetos a diferentes distancias de la c谩mara.
shear float 0.0 -180 - +180 Corta la imagen en un grado determinado, imitando el efecto de los objetos vistos desde distintos 谩ngulos.
perspective float 0.0 0.0 - 0.001 Aplica una transformaci贸n de perspectiva aleatoria a la imagen, mejorando la capacidad del modelo para comprender los objetos en el espacio tridimensional.
flipud float 0.0 0.0 - 1.0 Da la vuelta a la imagen con la probabilidad especificada, aumentando la variabilidad de los datos sin afectar a las caracter铆sticas del objeto.
fliplr float 0.5 0.0 - 1.0 Voltea la imagen de izquierda a derecha con la probabilidad especificada, 煤til para aprender objetos sim茅tricos y aumentar la diversidad del conjunto de datos.
bgr float 0.0 0.0 - 1.0 Voltea los canales de la imagen de RGB a BGR con la probabilidad especificada, 煤til para aumentar la robustez ante una ordenaci贸n incorrecta de los canales.
mosaic float 1.0 0.0 - 1.0 Combina cuatro im谩genes de entrenamiento en una, simulando diferentes composiciones de escena e interacciones de objetos. Muy eficaz para la comprensi贸n de escenas complejas.
mixup float 0.0 0.0 - 1.0 Mezcla dos im谩genes y sus etiquetas, creando una imagen compuesta. Mejora la capacidad de generalizaci贸n del modelo introduciendo ruido de etiquetas y variabilidad visual.
copy_paste float 0.0 0.0 - 1.0 Copia objetos de una imagen y los pega en otra, 煤til para aumentar las instancias de objetos y aprender la oclusi贸n de objetos.
auto_augment str randaugment - Aplica autom谩ticamente una pol铆tica de aumento predefinida (randaugment, autoaugment, augmix), optimizando las tareas de clasificaci贸n mediante la diversificaci贸n de las caracter铆sticas visuales.
erasing float 0.4 0.0 - 0.9 Borra aleatoriamente una parte de la imagen durante el entrenamiento de clasificaci贸n, animando al modelo a centrarse en caracter铆sticas menos obvias para el reconocimiento.
crop_fraction float 1.0 0.1 - 1.0 Recorta la imagen de clasificaci贸n a una fracci贸n de su tama帽o para resaltar las caracter铆sticas centrales y adaptarse a las escalas de los objetos, reduciendo las distracciones del fondo.

Estos valores pueden ajustarse para satisfacer los requisitos espec铆ficos del conjunto de datos y la tarea en cuesti贸n. Experimentar con distintos valores puede ayudar a encontrar la estrategia de aumento 贸ptima que conduzca al mejor rendimiento del modelo.

Informaci贸n

Para m谩s informaci贸n sobre las operaciones de aumento del entrenamiento, consulta la secci贸n de referencia.

Registro

Al entrenar un modelo YOLOv8 , puede que te resulte valioso hacer un seguimiento del rendimiento del modelo a lo largo del tiempo. Aqu铆 es donde entra en juego el registro. Ultralytics' YOLO proporciona soporte para tres tipos de registradores - Comet, ClearML, y TensorBoard.

Para utilizar un registrador, selecci贸nalo en el men煤 desplegable del fragmento de c贸digo anterior y ejec煤talo. El registrador elegido se instalar谩 e inicializar谩.

Comet

Comet es una plataforma que permite a los cient铆ficos de datos y a los desarrolladores rastrear, comparar, explicar y optimizar experimentos y modelos. Proporciona funcionalidades como m茅tricas en tiempo real, diferencias de c贸digo y seguimiento de hiperpar谩metros.

Para utilizar Comet:

Ejemplo

# pip install comet_ml
import comet_ml

comet_ml.init()

Recuerda iniciar sesi贸n en tu cuenta de Comet en su sitio web y obtener tu clave API. Tendr谩s que a帽adirla a tus variables de entorno o a tu script para registrar tus experimentos.

ClearML

ClearML es una plataforma de c贸digo abierto que automatiza el seguimiento de los experimentos y ayuda a compartir eficazmente los recursos. Est谩 dise帽ada para ayudar a los equipos a gestionar, ejecutar y reproducir su trabajo de ML de forma m谩s eficiente.

Para utilizar ClearML:

Ejemplo

# pip install clearml
import clearml

clearml.browser_login()

Despu茅s de ejecutar este script, tendr谩s que acceder a tu cuenta ClearML en el navegador y autenticar tu sesi贸n.

TensorBoard

TensorBoard es un conjunto de herramientas de visualizaci贸n para TensorFlow. Te permite visualizar tu gr谩fico TensorFlow , trazar m茅tricas cuantitativas sobre la ejecuci贸n de tu gr谩fico y mostrar datos adicionales como im谩genes que pasan por 茅l.

Para utilizar TensorBoard en Google Colab:

Ejemplo

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Para utilizar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/.

Ejemplo

tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Esto cargar谩 TensorBoard y lo dirigir谩 al directorio donde est谩n guardados tus registros de entrenamiento.

Despu茅s de configurar tu registrador, puedes proceder al entrenamiento de tu modelo. Todas las m茅tricas de entrenamiento se registrar谩n autom谩ticamente en la plataforma que elijas, y podr谩s acceder a estos registros para controlar el rendimiento de tu modelo a lo largo del tiempo, comparar diferentes modelos e identificar 谩reas de mejora.



Creado 2023-11-12, Actualizado 2024-04-23
Autores: dependabot[bot] (1), glenn-jocher (10), fcakyon (1), Laughing-q (2), Burhan-Q (1)

Comentarios