Modelo de entrenamiento con Ultralytics YOLO
Introducci贸n
Entrenar un modelo de aprendizaje profundo implica alimentarlo con datos y ajustar sus par谩metros para que pueda hacer predicciones precisas. El modo Entrenar de Ultralytics YOLOv8 est谩 dise帽ado para un entrenamiento eficaz y eficiente de los modelos de detecci贸n de objetos, utilizando plenamente las capacidades del hardware moderno. Esta gu铆a pretende cubrir todos los detalles que necesitas para empezar a entrenar tus propios modelos utilizando el s贸lido conjunto de funciones de YOLOv8.
Observa: C贸mo entrenar un modelo YOLOv8 con tu conjunto de datos personalizado en Google Colab.
驴Por qu茅 elegir Ultralytics YOLO para la formaci贸n?
He aqu铆 algunas razones de peso para optar por el modo Tren de YOLOv8:
- Eficiencia: Saca el m谩ximo partido a tu hardware, tanto si utilizas una sola GPU como si escalas varias.
- Versatilidad: Entr茅nate en conjuntos de datos personalizados, adem谩s de en otros f谩cilmente disponibles como COCO, VOC e ImageNet.
- F谩cil de usar: interfaces sencillas pero potentes en CLI y Python para una experiencia de formaci贸n sencilla.
- Flexibilidad de hiperpar谩metros: Una amplia gama de hiperpar谩metros personalizables para afinar el rendimiento del modelo.
Caracter铆sticas principales del Modo Tren
Las siguientes son algunas caracter铆sticas notables del modo Tren de YOLOv8:
- Descarga autom谩tica de conjuntos de datos: Los conjuntos de datos est谩ndar como COCO, VOC e ImageNet se descargan autom谩ticamente en el primer uso.
- Soporte Multi-GPU: Escala tus esfuerzos de entrenamiento sin problemas a trav茅s de m煤ltiples GPUs para agilizar el proceso.
- Configuraci贸n de hiperpar谩metros: La opci贸n de modificar hiperpar谩metros mediante archivos de configuraci贸n YAML o argumentos CLI .
- Visualizaci贸n y seguimiento: Seguimiento en tiempo real de las m茅tricas de formaci贸n y visualizaci贸n del proceso de aprendizaje para una mejor comprensi贸n.
Consejo
- YOLOv8 conjuntos de datos como COCO, VOC, ImageNet y muchos otros se descargan autom谩ticamente en el primer uso, es decir
yolo train data=coco.yaml
Ejemplos de uso
Entrena YOLOv8n en el conjunto de datos COCO8 durante 100 茅pocas con un tama帽o de imagen de 640. El dispositivo de entrenamiento se puede especificar mediante la opci贸n device
argumento. Si no se pasa ning煤n argumento GPU device=0
se utilizar谩 si est谩 disponible, de lo contrario device='cpu'
se utilizar谩n. Consulta la secci贸n Argumentos m谩s abajo para ver una lista completa de los argumentos de entrenamiento.
Ejemplo de entrenamiento con una sola GPU y CPU
El dispositivo se determina autom谩ticamente. Si hay una GPU disponible, se utilizar谩; de lo contrario, el entrenamiento se iniciar谩 en la CPU.
from ultralytics import YOLO
# Load a model
model = YOLO('yolov8n.yaml') # build a new model from YAML
model = YOLO('yolov8n.pt') # load a pretrained model (recommended for training)
model = YOLO('yolov8n.yaml').load('yolov8n.pt') # build from YAML and transfer weights
# Train the model
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
Formaci贸n Multi-GPU
El entrenamiento Multi-GPU permite una utilizaci贸n m谩s eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento entre varias GPU. Esta funci贸n est谩 disponible tanto a trav茅s de la API Python como de la interfaz de l铆nea de comandos. Para activar el entrenamiento multi-GPU, especifica los ID de dispositivo GPU que deseas utilizar.
Ejemplo de entrenamiento multi-GPU
Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1 utiliza los siguientes comandos. Ampl铆a a GPUs adicionales seg煤n sea necesario.
Formaci贸n Apple M1 y M2 MPS
Con la compatibilidad con los chips Apple M1 y M2 integrados en los modelos Ultralytics YOLO , ahora es posible entrenar tus modelos en dispositivos que utilicen el potente marco Metal Performance Shaders (MPS). El MPS ofrece una forma de alto rendimiento de ejecutar tareas de c谩lculo y procesamiento de im谩genes en el silicio personalizado de Apple.
Para activar el entrenamiento en los chips Apple M1 y M2, debes especificar "mps" como dispositivo al iniciar el proceso de entrenamiento. A continuaci贸n se muestra un ejemplo de c贸mo puedes hacerlo en Python y a trav茅s de la l铆nea de comandos:
Ejemplo de formaci贸n MPS
Al tiempo que se aprovecha la potencia de c谩lculo de los chips M1/M2, esto permite un procesamiento m谩s eficiente de las tareas de entrenamiento. Para una orientaci贸n m谩s detallada y opciones de configuraci贸n avanzadas, consulta la documentaci贸n dePyTorch MPS.
Reanudaci贸n de los cursos interrumpidos
Reanudar el entrenamiento a partir de un estado previamente guardado es una funci贸n crucial cuando se trabaja con modelos de aprendizaje profundo. Esto puede resultar 煤til en varias situaciones, como cuando el proceso de entrenamiento se ha interrumpido inesperadamente, o cuando deseas continuar entrenando un modelo con nuevos datos o durante m谩s 茅pocas.
Cuando se reanuda el entrenamiento, Ultralytics YOLO carga los pesos del 煤ltimo modelo guardado y tambi茅n restaura el estado del optimizador, el programador de la tasa de aprendizaje y el n煤mero de 茅pocas. Esto te permite continuar el proceso de entrenamiento sin problemas desde donde se dej贸.
Puedes reanudar f谩cilmente el entrenamiento en Ultralytics YOLO configurando resume
argumento para True
al llamar al train
y especificando la ruta de acceso al m茅todo .pt
que contiene los pesos del modelo parcialmente entrenado.
A continuaci贸n se muestra un ejemplo de c贸mo reanudar un entrenamiento interrumpido utilizando Python y a trav茅s de la l铆nea de comandos:
Ejemplo de formaci贸n para el curr铆culum
Estableciendo resume=True
la train
continuar谩 el entrenamiento desde donde lo dej贸, utilizando el estado almacenado en el archivo "ruta/a/煤ltimo.pt". Si la funci贸n resume
se omite o se establece en False
la train
iniciar谩 una nueva sesi贸n de entrenamiento.
Recuerda que los puntos de control se guardan al final de cada 茅poca por defecto, o a intervalos fijos utilizando la opci贸n save_period
por lo que debes completar al menos 1 茅poca para reanudar una carrera de entrenamiento.
Ajustes del tren
Los ajustes de entrenamiento de los modelos YOLO abarcan diversos hiperpar谩metros y configuraciones utilizados durante el proceso de entrenamiento. Estos ajustes influyen en el rendimiento, la velocidad y la precisi贸n del modelo. Los ajustes de entrenamiento clave incluyen el tama帽o del lote, la velocidad de aprendizaje, el impulso y el decaimiento del peso. Adem谩s, la elecci贸n del optimizador, la funci贸n de p茅rdida y la composici贸n del conjunto de datos de entrenamiento pueden influir en el proceso de entrenamiento. El ajuste cuidadoso y la experimentaci贸n con estos ajustes son cruciales para optimizar el rendimiento.
Argumento | Por defecto | Descripci贸n |
---|---|---|
model |
None |
Especifica el archivo modelo para el entrenamiento. Acepta una ruta a .pt modelo preentrenado o un .yaml archivo de configuraci贸n. Esencial para definir la estructura del modelo o inicializar los pesos. |
data |
None |
Ruta al archivo de configuraci贸n del conjunto de datos (por ejemplo, coco8.yaml ). Este archivo contiene par谩metros espec铆ficos del conjunto de datos, incluidas las rutas a los datos de entrenamiento y validaci贸n, los nombres de las clases y el n煤mero de clases. |
epochs |
100 |
N煤mero total de 茅pocas de entrenamiento. Cada 茅poca representa una pasada completa por todo el conjunto de datos. Ajustar este valor puede afectar a la duraci贸n del entrenamiento y al rendimiento del modelo. |
time |
None |
Tiempo m谩ximo de entrenamiento en horas. Si se establece, anula la opci贸n epochs para que el entrenamiento se detenga autom谩ticamente tras la duraci贸n especificada. 脷til para situaciones de entrenamiento con limitaciones de tiempo. |
patience |
100 |
N煤mero de 茅pocas que hay que esperar sin que mejoren las m茅tricas de validaci贸n antes de detener el entrenamiento anticipadamente. Ayuda a evitar el sobreajuste deteniendo el entrenamiento cuando el rendimiento se estabiliza. |
batch |
16 |
Tama帽o del lote para el entrenamiento, que indica cu谩ntas im谩genes se procesan antes de actualizar los par谩metros internos del modelo. AutoLote (batch=-1 ) ajusta din谩micamente el tama帽o del lote en funci贸n de la disponibilidad de memoria en la GPU. |
imgsz |
640 |
Tama帽o de imagen objetivo para el entrenamiento. Todas las im谩genes se redimensionan a esta dimensi贸n antes de introducirlas en el modelo. Afecta a la precisi贸n del modelo y a la complejidad computacional. |
save |
True |
Permite guardar los puntos de control del entrenamiento y los pesos finales del modelo. 脷til para reanudar el entrenamiento o el despliegue del modelo. |
save_period |
-1 |
Frecuencia con la que se guardan los puntos de control del modelo, especificada en 茅pocas. Un valor de -1 desactiva esta funci贸n. 脷til para guardar modelos provisionales durante sesiones de entrenamiento largas. |
cache |
False |
Activa el almacenamiento en cach茅 de las im谩genes del conjunto de datos en la memoria (True /ram ), en disco (disk ), o desact铆valo (False ). Mejora la velocidad de entrenamiento reduciendo la E/S de disco a costa de un mayor uso de memoria. |
device |
None |
Especifica el dispositivo o dispositivos de c谩lculo para el entrenamiento: una 煤nica GPU (device=0 ), varias GPU (device=0,1 ), CPU (device=cpu ), o MPS para el silicio de Apple (device=mps ). |
workers |
8 |
N煤mero de subprocesos de trabajo para la carga de datos (por RANK si el entrenamiento es Multi-GPU). Influye en la velocidad de preprocesamiento de datos y alimentaci贸n del modelo, especialmente 煤til en configuraciones multi-GPU. |
project |
None |
Nombre del directorio del proyecto donde se guardan los resultados del entrenamiento. Permite almacenar de forma organizada los distintos experimentos. |
name |
None |
Nombre de la ejecuci贸n de entrenamiento. Se utiliza para crear un subdirectorio dentro de la carpeta del proyecto, donde se almacenan los registros de entrenamiento y los resultados. |
exist_ok |
False |
Si es Verdadero, permite sobrescribir un directorio de proyecto/nombre existente. 脷til para la experimentaci贸n iterativa sin necesidad de borrar manualmente las salidas anteriores. |
pretrained |
True |
Determina si se inicia el entrenamiento a partir de un modelo preentrenado. Puede ser un valor booleano o una cadena de ruta a un modelo espec铆fico desde el que cargar los pesos. Mejora la eficacia del entrenamiento y el rendimiento del modelo. |
optimizer |
'auto' |
Elecci贸n del optimizador para el entrenamiento. Las opciones incluyen SGD , Adam , AdamW , NAdam , RAdam , RMSProp etc., o auto para una selecci贸n autom谩tica basada en la configuraci贸n del modelo. Afecta a la velocidad de convergencia y a la estabilidad. |
verbose |
False |
Activa la salida detallada durante el entrenamiento, proporcionando registros detallados y actualizaciones del progreso. 脷til para depurar y supervisar de cerca el proceso de entrenamiento. |
seed |
0 |
Establece la semilla aleatoria para el entrenamiento, garantizando la reproducibilidad de los resultados entre ejecuciones con las mismas configuraciones. |
deterministic |
True |
Fuerza el uso de algoritmos deterministas, lo que garantiza la reproducibilidad, pero puede afectar al rendimiento y la velocidad debido a la restricci贸n de algoritmos no deterministas. |
single_cls |
False |
Trata todas las clases de los conjuntos de datos multiclase como una sola clase durante el entrenamiento. 脷til para tareas de clasificaci贸n binaria o cuando te centras en la presencia del objeto m谩s que en la clasificaci贸n. |
rect |
False |
Permite el entrenamiento rectangular, optimizando la composici贸n del lote para un relleno m铆nimo. Puede mejorar la eficacia y la velocidad, pero puede afectar a la precisi贸n del modelo. |
cos_lr |
False |
Utiliza un programador de la tasa de aprendizaje coseno, que ajusta la tasa de aprendizaje siguiendo una curva coseno a lo largo de las 茅pocas. Ayuda a gestionar la tasa de aprendizaje para una mejor convergencia. |
close_mosaic |
10 |
Desactiva el aumento de datos en mosaico en las 煤ltimas N 茅pocas para estabilizar el entrenamiento antes de finalizarlo. El valor 0 desactiva esta funci贸n. |
resume |
False |
Reanuda el entrenamiento desde el 煤ltimo punto de control guardado. Carga autom谩ticamente los pesos del modelo, el estado del optimizador y el recuento de 茅pocas, continuando el entrenamiento sin problemas. |
amp |
True |
Permite el entrenamiento Autom谩tico de Precisi贸n Mixta (AMP), reduciendo el uso de memoria y posiblemente acelerando el entrenamiento con un impacto m铆nimo en la precisi贸n. |
fraction |
1.0 |
Especifica la fracci贸n del conjunto de datos que se utilizar谩 para el entrenamiento. Permite entrenar con un subconjunto del conjunto de datos completo, 煤til para experimentos o cuando los recursos son limitados. |
profile |
False |
Permite perfilar las velocidades de ONNX y TensorRT durante el entrenamiento, 煤til para optimizar el despliegue del modelo. |
freeze |
None |
Congela las N primeras capas del modelo o capas especificadas por 铆ndice, reduciendo el n煤mero de par谩metros entrenables. 脷til para el ajuste fino o el aprendizaje por transferencia. |
lr0 |
0.01 |
Tasa de aprendizaje inicial (es decir SGD=1E-2 , Adam=1E-3 ) . El ajuste de este valor es crucial para el proceso de optimizaci贸n, ya que influye en la rapidez con que se actualizan las ponderaciones del modelo. |
lrf |
0.01 |
Tasa de aprendizaje final como fracci贸n de la tasa inicial = (lr0 * lrf ), que se utiliza junto con los programadores para ajustar el ritmo de aprendizaje a lo largo del tiempo. |
momentum |
0.937 |
Factor de impulso para SGD o beta1 para optimizadores Adam, que influye en la incorporaci贸n de gradientes pasados en la actualizaci贸n actual. |
weight_decay |
0.0005 |
T茅rmino de regularizaci贸n L2, que penaliza los pesos grandes para evitar el sobreajuste. |
warmup_epochs |
3.0 |
N煤mero de 茅pocas para el calentamiento de la tasa de aprendizaje, aumentando gradualmente la tasa de aprendizaje desde un valor bajo hasta la tasa de aprendizaje inicial para estabilizar el entrenamiento desde el principio. |
warmup_momentum |
0.8 |
Impulso inicial para la fase de calentamiento, ajust谩ndose gradualmente al impulso establecido durante el periodo de calentamiento. |
warmup_bias_lr |
0.1 |
Tasa de aprendizaje de los par谩metros de sesgo durante la fase de calentamiento, que ayuda a estabilizar el entrenamiento del modelo en las 茅pocas iniciales. |
box |
7.5 |
Peso del componente de p茅rdida de caja en la funci贸n de p茅rdida, que influye en el 茅nfasis que se pone en predecir con precisi贸n las coordenadas de la caja delimitadora. |
cls |
0.5 |
Peso de la p茅rdida de clasificaci贸n en la funci贸n de p茅rdida total, que afecta a la importancia de la predicci贸n correcta de la clase en relaci贸n con otros componentes. |
dfl |
1.5 |
Peso de la p茅rdida focal de distribuci贸n, utilizado en algunas versiones de YOLO para una clasificaci贸n de grano fino. |
pose |
12.0 |
Peso de la p茅rdida de pose en los modelos entrenados para la estimaci贸n de la pose, lo que influye en la importancia de predecir con precisi贸n los puntos clave de la pose. |
kobj |
2.0 |
Ponderaci贸n de la p茅rdida de objetividad del punto clave en los modelos de estimaci贸n de la pose, equilibrando la confianza en la detecci贸n con la precisi贸n de la pose. |
label_smoothing |
0.0 |
Aplica el suavizado de etiquetas, suavizando las etiquetas duras a una mezcla de la etiqueta objetivo y una distribuci贸n uniforme sobre las etiquetas, puede mejorar la generalizaci贸n. |
nbs |
64 |
Tama帽o nominal del lote para la normalizaci贸n de la p茅rdida. |
overlap_mask |
True |
Determina si las m谩scaras de segmentaci贸n deben solaparse durante el entrenamiento, aplicable en tareas de segmentaci贸n de instancias. |
mask_ratio |
4 |
Relaci贸n de reducci贸n de la muestra para las m谩scaras de segmentaci贸n, que afecta a la resoluci贸n de las m谩scaras utilizadas durante el entrenamiento. |
dropout |
0.0 |
Tasa de abandono para la regularizaci贸n en tareas de clasificaci贸n, que evita el sobreajuste omitiendo aleatoriamente unidades durante el entrenamiento. |
val |
True |
Activa la validaci贸n durante el entrenamiento, lo que permite evaluar peri贸dicamente el rendimiento del modelo en un conjunto de datos distinto. |
plots |
False |
Genera y guarda gr谩ficos de las m茅tricas de entrenamiento y validaci贸n, as铆 como ejemplos de predicci贸n, proporcionando una visi贸n visual del rendimiento del modelo y de la progresi贸n del aprendizaje. |
Ajustes de aumento e hiperpar谩metros
Las t茅cnicas de aumento son esenciales para mejorar la solidez y el rendimiento de los modelos YOLO introduciendo variabilidad en los datos de entrenamiento, lo que ayuda al modelo a generalizar mejor a los datos no vistos. La tabla siguiente describe la finalidad y el efecto de cada argumento de aumento:
Argumento | Tipo | Por defecto | Gama | Descripci贸n |
---|---|---|---|---|
hsv_h |
float |
0.015 |
0.0 - 1.0 |
Ajusta el tono de la imagen en una fracci贸n de la rueda de color, introduciendo variabilidad crom谩tica. Ayuda al modelo a generalizarse en diferentes condiciones de iluminaci贸n. |
hsv_s |
float |
0.7 |
0.0 - 1.0 |
Altera la saturaci贸n de la imagen en una fracci贸n, afectando a la intensidad de los colores. 脷til para simular diferentes condiciones ambientales. |
hsv_v |
float |
0.4 |
0.0 - 1.0 |
Modifica el valor (brillo) de la imagen en una fracci贸n, lo que ayuda a que el modelo funcione bien en distintas condiciones de iluminaci贸n. |
degrees |
float |
0.0 |
-180 - +180 |
Gira la imagen aleatoriamente dentro del intervalo de grados especificado, mejorando la capacidad del modelo para reconocer objetos en diversas orientaciones. |
translate |
float |
0.1 |
0.0 - 1.0 |
Traslada la imagen horizontal y verticalmente una fracci贸n del tama帽o de la imagen, lo que ayuda a aprender a detectar objetos parcialmente visibles. |
scale |
float |
0.5 |
>=0.0 |
Escala la imagen por un factor de ganancia, simulando objetos a diferentes distancias de la c谩mara. |
shear |
float |
0.0 |
-180 - +180 |
Corta la imagen en un grado determinado, imitando el efecto de los objetos vistos desde distintos 谩ngulos. |
perspective |
float |
0.0 |
0.0 - 0.001 |
Aplica una transformaci贸n de perspectiva aleatoria a la imagen, mejorando la capacidad del modelo para comprender los objetos en el espacio tridimensional. |
flipud |
float |
0.0 |
0.0 - 1.0 |
Da la vuelta a la imagen con la probabilidad especificada, aumentando la variabilidad de los datos sin afectar a las caracter铆sticas del objeto. |
fliplr |
float |
0.5 |
0.0 - 1.0 |
Voltea la imagen de izquierda a derecha con la probabilidad especificada, 煤til para aprender objetos sim茅tricos y aumentar la diversidad del conjunto de datos. |
bgr |
float |
0.0 |
0.0 - 1.0 |
Voltea los canales de la imagen de RGB a BGR con la probabilidad especificada, 煤til para aumentar la robustez ante una ordenaci贸n incorrecta de los canales. |
mosaic |
float |
1.0 |
0.0 - 1.0 |
Combina cuatro im谩genes de entrenamiento en una, simulando diferentes composiciones de escena e interacciones de objetos. Muy eficaz para la comprensi贸n de escenas complejas. |
mixup |
float |
0.0 |
0.0 - 1.0 |
Mezcla dos im谩genes y sus etiquetas, creando una imagen compuesta. Mejora la capacidad de generalizaci贸n del modelo introduciendo ruido de etiquetas y variabilidad visual. |
copy_paste |
float |
0.0 |
0.0 - 1.0 |
Copia objetos de una imagen y los pega en otra, 煤til para aumentar las instancias de objetos y aprender la oclusi贸n de objetos. |
auto_augment |
str |
randaugment |
- | Aplica autom谩ticamente una pol铆tica de aumento predefinida (randaugment , autoaugment , augmix ), optimizando las tareas de clasificaci贸n mediante la diversificaci贸n de las caracter铆sticas visuales. |
erasing |
float |
0.4 |
0.0 - 0.9 |
Borra aleatoriamente una parte de la imagen durante el entrenamiento de clasificaci贸n, animando al modelo a centrarse en caracter铆sticas menos obvias para el reconocimiento. |
crop_fraction |
float |
1.0 |
0.1 - 1.0 |
Recorta la imagen de clasificaci贸n a una fracci贸n de su tama帽o para resaltar las caracter铆sticas centrales y adaptarse a las escalas de los objetos, reduciendo las distracciones del fondo. |
Estos valores pueden ajustarse para satisfacer los requisitos espec铆ficos del conjunto de datos y la tarea en cuesti贸n. Experimentar con distintos valores puede ayudar a encontrar la estrategia de aumento 贸ptima que conduzca al mejor rendimiento del modelo.
Informaci贸n
Para m谩s informaci贸n sobre las operaciones de aumento del entrenamiento, consulta la secci贸n de referencia.
Registro
Al entrenar un modelo YOLOv8 , puede que te resulte valioso hacer un seguimiento del rendimiento del modelo a lo largo del tiempo. Aqu铆 es donde entra en juego el registro. Ultralytics' YOLO proporciona soporte para tres tipos de registradores - Comet, ClearML, y TensorBoard.
Para utilizar un registrador, selecci贸nalo en el men煤 desplegable del fragmento de c贸digo anterior y ejec煤talo. El registrador elegido se instalar谩 e inicializar谩.
Comet
Comet es una plataforma que permite a los cient铆ficos de datos y a los desarrolladores rastrear, comparar, explicar y optimizar experimentos y modelos. Proporciona funcionalidades como m茅tricas en tiempo real, diferencias de c贸digo y seguimiento de hiperpar谩metros.
Para utilizar Comet:
Recuerda iniciar sesi贸n en tu cuenta de Comet en su sitio web y obtener tu clave API. Tendr谩s que a帽adirla a tus variables de entorno o a tu script para registrar tus experimentos.
ClearML
ClearML es una plataforma de c贸digo abierto que automatiza el seguimiento de los experimentos y ayuda a compartir eficazmente los recursos. Est谩 dise帽ada para ayudar a los equipos a gestionar, ejecutar y reproducir su trabajo de ML de forma m谩s eficiente.
Para utilizar ClearML:
Despu茅s de ejecutar este script, tendr谩s que acceder a tu cuenta ClearML en el navegador y autenticar tu sesi贸n.
TensorBoard
TensorBoard es un conjunto de herramientas de visualizaci贸n para TensorFlow. Te permite visualizar tu gr谩fico TensorFlow , trazar m茅tricas cuantitativas sobre la ejecuci贸n de tu gr谩fico y mostrar datos adicionales como im谩genes que pasan por 茅l.
Para utilizar TensorBoard en Google Colab:
Para utilizar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/.
Esto cargar谩 TensorBoard y lo dirigir谩 al directorio donde est谩n guardados tus registros de entrenamiento.
Despu茅s de configurar tu registrador, puedes proceder al entrenamiento de tu modelo. Todas las m茅tricas de entrenamiento se registrar谩n autom谩ticamente en la plataforma que elijas, y podr谩s acceder a estos registros para controlar el rendimiento de tu modelo a lo largo del tiempo, comparar diferentes modelos e identificar 谩reas de mejora.
Creado 2023-11-12, Actualizado 2024-04-23
Autores: dependabot[bot] (1), glenn-jocher (10), fcakyon (1), Laughing-q (2), Burhan-Q (1)