Salta para o conte√ļdo

Treino de modelos com Ultralytics YOLO

Ultralytics YOLO ecossistema e integra√ß√Ķes

Introdução

O treinamento de um modelo de aprendizado profundo envolve a alimenta√ß√£o de dados e o ajuste de seus par√Ęmetros para que ele possa fazer previs√Ķes precisas. O modo de treino em Ultralytics YOLOv8 foi concebido para um treino eficaz e eficiente de modelos de dete√ß√£o de objectos, utilizando plenamente as capacidades do hardware moderno. Este guia tem como objetivo cobrir todos os detalhes necess√°rios para come√ßares a treinar os teus pr√≥prios modelos utilizando o conjunto robusto de funcionalidades do YOLOv8.



Observa: Como treinar um modelo YOLOv8 no teu conjunto de dados personalizado no Google Colab.

Porquê escolher Ultralytics YOLO para a formação?

Eis algumas raz√Ķes convincentes para optares pelo modo Train do YOLOv8:

  • Efici√™ncia: Tira o m√°ximo partido do teu hardware, quer estejas numa configura√ß√£o de uma √ļnica GPU ou a escalar entre v√°rias GPUs.
  • Versatilidade: Treina em conjuntos de dados personalizados, para al√©m dos prontamente dispon√≠veis, como COCO, VOC e ImageNet.
  • F√°cil de utilizar: Interfaces CLI e Python simples mas poderosas para uma experi√™ncia de forma√ß√£o direta.
  • Flexibilidade de hiperpar√Ęmetros: Uma ampla gama de hiperpar√Ęmetros personaliz√°veis para ajustar o desempenho do modelo.

Principais características do modo comboio

Apresentamos em seguida algumas características notáveis do modo comboio do YOLOv8:

  • Descarga autom√°tica de conjuntos de dados: Os conjuntos de dados padr√£o como COCO, VOC e ImageNet s√£o descarregados automaticamente na primeira utiliza√ß√£o.
  • Suporte multi-GPU: Dimensiona os teus esfor√ßos de forma√ß√£o de forma integrada em v√°rias GPUs para acelerar o processo.
  • Configura√ß√£o de hiperpar√Ęmetros: A op√ß√£o de modificar hiperpar√Ęmetros por meio de arquivos de configura√ß√£o YAML ou argumentos de CLI .
  • Visualiza√ß√£o e monitoriza√ß√£o: Acompanha em tempo real as m√©tricas de forma√ß√£o e visualiza o processo de aprendizagem para obter melhores informa√ß√Ķes.

Dica

  • YOLOv8 conjuntos de dados como COCO, VOC, ImageNet e muitos outros s√£o descarregados automaticamente na primeira utiliza√ß√£o, ou seja yolo train data=coco.yaml

Exemplos de utilização

Treina YOLOv8n no conjunto de dados COCO8 para 100 épocas com o tamanho de imagem 640. O dispositivo de treino pode ser especificado utilizando a opção device argumento. Se não for passado nenhum argumento GPU device=0 será utilizado se estiver disponível, caso contrário device='cpu' será utilizado. Vê a secção Argumentos abaixo para uma lista completa de argumentos de treino.

Exemplo de treinamento com uma √ļnica GPU e CPU

O dispositivo é determinado automaticamente. Se estiver disponível uma GPU, esta será utilizada; caso contrário, o treino será iniciado no CPU.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from YAML
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Formação Multi-GPU

O treinamento multi-GPU permite uma utilização mais eficiente dos recursos de hardware disponíveis, distribuindo a carga de treinamento em várias GPUs. Esta funcionalidade está disponível através da API Python e da interface de linha de comandos. Para ativar o treino multi-GPU, especifica as IDs de dispositivos GPU que pretendes utilizar.

Exemplo de treinamento multi-GPU

Para treinar com 2 GPUs, dispositivos CUDA 0 e 1, usa os seguintes comandos. Expande para GPUs adicionais conforme necess√°rio.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1

Formação Apple M1 e M2 MPS

Com o suporte para os chips Apple M1 e M2 integrados nos modelos Ultralytics YOLO , é agora possível treinar os teus modelos em dispositivos que utilizam a poderosa estrutura Metal Performance Shaders (MPS). O MPS oferece uma forma de alto desempenho de executar tarefas de computação e processamento de imagens no silício personalizado da Apple.

Para ativar a formação nos chips Apple M1 e M2, deves especificar 'mps' como o teu dispositivo quando iniciares o processo de formação. Segue-se um exemplo de como podes fazer isto em Python e através da linha de comandos:

Exemplo de formação MPS

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps

Enquanto aproveita o poder computacional dos chips M1/M2, isso permite um processamento mais eficiente das tarefas de treinamento. Para obter orienta√ß√Ķes mais detalhadas e op√ß√Ķes de configura√ß√£o avan√ßadas, consulta a documenta√ß√£o doPyTorch MPS.

Retomar as forma√ß√Ķes interrompidas

Retomar o treinamento a partir de um estado salvo anteriormente √© um recurso crucial ao trabalhar com modelos de aprendizado profundo. Isto pode ser √ļtil em v√°rios cen√°rios, como quando o processo de treino foi inesperadamente interrompido, ou quando desejas continuar a treinar um modelo com novos dados ou para mais √©pocas.

Quando o treinamento √© retomado, o Ultralytics YOLO carrega os pesos do √ļltimo modelo salvo e tamb√©m restaura o estado do otimizador, o agendador da taxa de aprendizado e o n√ļmero da √©poca. Isto permite-te continuar o processo de treino sem problemas a partir do ponto onde foi deixado.

Podes retomar facilmente a formação em Ultralytics YOLO definindo o resume argumento para True ao chamar o train e especificando o caminho para o método .pt ficheiro que contém os pesos do modelo parcialmente treinado.

Segue-se um exemplo de como retomar uma formação interrompida utilizando Python e através da linha de comandos:

Exemplo de formação de currículo

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/last.pt")  # load a partially trained model

# Resume training
results = model.train(resume=True)
# Resume an interrupted training
yolo train resume model=path/to/last.pt

Por definição resume=True, o train continua a treinar a partir do ponto em que parou, utilizando o estado armazenado no ficheiro 'path/to/last.pt'. Se o ficheiro resume é omitido ou definido como False, o train A função de "iniciar" inicia uma nova sessão de formação.

Lembra-te que os pontos de controlo são guardados no final de cada época por defeito, ou num intervalo fixo utilizando a opção save_period por isso, tens de completar pelo menos 1 época para retomar uma corrida de treino.

Defini√ß√Ķes do comboio

As defini√ß√Ķes de treino para os modelos YOLO englobam v√°rios hiperpar√Ęmetros e configura√ß√Ķes utilizados durante o processo de treino. Estas defini√ß√Ķes influenciam o desempenho, a velocidade e a precis√£o do modelo. As principais defini√ß√Ķes de treino incluem o tamanho do lote, a taxa de aprendizagem, o momento e a diminui√ß√£o do peso. Al√©m disso, a escolha do optimizador, a fun√ß√£o de perda e a composi√ß√£o do conjunto de dados de treino podem ter impacto no processo de treino. O ajuste cuidadoso e a experimenta√ß√£o com estas defini√ß√Ķes s√£o cruciais para otimizar o desempenho.

Argumenta Predefinição Descrição
model None Especifica o arquivo de modelo para treinamento. Aceita um caminho para um arquivo .pt modelo pré-treinado ou um .yaml ficheiro de configuração. Essencial para definir a estrutura do modelo ou inicializar os pesos.
data None Caminho para o ficheiro de configura√ß√£o do conjunto de dados (por exemplo, coco8.yaml). Este ficheiro cont√©m par√Ęmetros espec√≠ficos do conjunto de dados, incluindo caminhos para os dados de treino e valida√ß√£o, nomes de classes e n√ļmero de classes.
epochs 100 N√ļmero total de √©pocas de treino. Cada √©poca representa uma passagem completa por todo o conjunto de dados. O ajuste deste valor pode afetar a dura√ß√£o do treino e o desempenho do modelo.
time None Tempo m√°ximo de forma√ß√£o em horas. Se estiver definido, substitui a op√ß√£o epochs permitindo que a forma√ß√£o pare automaticamente ap√≥s a dura√ß√£o especificada. √ötil para cen√°rios de forma√ß√£o com restri√ß√Ķes de tempo.
patience 100 N√ļmero de √©pocas a aguardar sem melhoria nas m√©tricas de valida√ß√£o antes de parar o treino antecipadamente. Ajuda a evitar o sobreajuste, interrompendo o treino quando o desempenho atinge um patamar.
batch 16 Batch size, with three modes: set as an integer (e.g., batch=16), auto mode for 60% GPU memory utilization (batch=-1), or auto mode with specified utilization fraction (batch=0.70).
imgsz 640 Dimens√£o da imagem alvo para treino. Todas as imagens s√£o redimensionadas para esta dimens√£o antes de serem introduzidas no modelo. Afecta a precis√£o do modelo e a complexidade computacional.
save True Permite guardar os pontos de verifica√ß√£o do treino e os pesos finais do modelo. √Č √ļtil para retomar o treino ou a implementa√ß√£o do modelo.
save_period -1 Frequ√™ncia de grava√ß√£o dos pontos de controlo do modelo, especificada em √©pocas. Um valor de -1 desactiva esta funcionalidade. √ötil para guardar modelos provis√≥rios durante longas sess√Ķes de treino.
cache False Ativa a colocação em cache das imagens do conjunto de dados na memória (True/ram), no disco (disk), ou desactiva-a (False). Melhora a velocidade de treino reduzindo as E/S do disco à custa de uma maior utilização da memória.
device None Especifica o(s) dispositivo(s) computacional(ais) para a forma√ß√£o: uma √ļnica GPU (device=0), v√°rias GPUs (device=0,1), CPU (device=cpu), ou MPS para sil√≠cio Apple (device=mps).
workers 8 N√ļmero de threads de trabalho para carregamento de dados (por RANK se estiver a treinar com v√°rias GPUs). Influencia a velocidade do pr√©-processamento de dados e a alimenta√ß√£o do modelo, especialmente √ļtil em configura√ß√Ķes multi-GPU.
project None Nome do diretório do projeto onde são guardados os resultados do treino. Permite o armazenamento organizado de diferentes experiências.
name None Nome da ação de formação. Utilizado para criar uma subdiretoria dentro da pasta do projeto, onde são armazenados os registos e os resultados da formação.
exist_ok False Se Verdadeiro, permite a substituição de um diretório de projeto/nome existente. Útil para experimentação iterativa sem a necessidade de limpar manualmente as saídas anteriores.
pretrained True Determina se deve iniciar o treino a partir de um modelo pré-treinado. Pode ser um valor booleano ou um caminho de cadeia de caracteres para um modelo específico a partir do qual carregar pesos. Melhora a eficiência do treinamento e o desempenho do modelo.
optimizer 'auto' Escolhe o optimizador para a forma√ß√£o. As op√ß√Ķes incluem SGD, Adam, AdamW, NAdam, RAdam, RMSProp etc., ou auto para sele√ß√£o autom√°tica com base na configura√ß√£o do modelo. Afecta a velocidade de converg√™ncia e a estabilidade.
verbose False Ativa a sa√≠da detalhada durante o treino, fornecendo registos detalhados e actualiza√ß√Ķes de progresso. √Č √ļtil para depurar e monitorizar de perto o processo de forma√ß√£o.
seed 0 Define a semente aleat√≥ria para o treino, garantindo a reprodutibilidade dos resultados entre execu√ß√Ķes com as mesmas configura√ß√Ķes.
deterministic True Força a utilização de algoritmos determinísticos, garantindo a reprodutibilidade, mas pode afetar o desempenho e a velocidade devido à restrição de algoritmos não determinísticos.
single_cls False Trata todas as classes em conjuntos de dados multi-classe como uma √ļnica classe durante o treino. √ötil para tarefas de classifica√ß√£o bin√°ria ou quando se concentra na presen√ßa de objectos em vez de na classifica√ß√£o.
rect False Permite a formação retangular, optimizando a composição do lote para um preenchimento mínimo. Pode melhorar a eficiência e a velocidade, mas pode afetar a precisão do modelo.
cos_lr False Utiliza um programador de taxa de aprendizagem cosseno, ajustando a taxa de aprendizagem seguindo uma curva cosseno ao longo de épocas. Ajuda a gerir a taxa de aprendizagem para uma melhor convergência.
close_mosaic 10 Desactiva o aumento dos dados do mosaico nas √ļltimas N √©pocas para estabilizar o treino antes da conclus√£o. Definir como 0 desactiva esta funcionalidade.
resume False Reinicia o treinamento a partir do √ļltimo ponto de verifica√ß√£o salvo. Carrega automaticamente os pesos do modelo, o estado do otimizador e a contagem de √©pocas, continuando o treinamento sem problemas.
amp True Permite a formação automática de precisão mista (AMP), reduzindo a utilização de memória e possivelmente acelerando a formação com um impacto mínimo na precisão.
fraction 1.0 Especifica a fra√ß√£o do conjunto de dados a utilizar para o treino. Permite o treino num subconjunto do conjunto de dados completo, √ļtil para experi√™ncias ou quando os recursos s√£o limitados.
profile False Permite a cria√ß√£o de perfis de ONNX e TensorRT velocidades durante o treino, √ļtil para otimizar a implementa√ß√£o do modelo.
freeze None Congela as primeiras N camadas do modelo ou camadas especificadas por √≠ndice, reduzindo o n√ļmero de par√Ęmetros trein√°veis. √ötil para ajuste fino ou aprendizagem por transfer√™ncia.
lr0 0.01 Taxa de aprendizagem inicial (i.e. SGD=1E-2, Adam=1E-3) . O ajuste deste valor é crucial para o processo de otimização, influenciando a rapidez com que os pesos do modelo são actualizados.
lrf 0.01 Taxa de aprendizagem final como fração da taxa inicial = (lr0 * lrf), utilizado em conjunto com programadores para ajustar a taxa de aprendizagem ao longo do tempo.
momentum 0.937 Fator de momento para SGD ou beta1 para optimizadores Adam, que influencia a incorporação de gradientes passados na atualização atual.
weight_decay 0.0005 Termo de regularização L2, penalizando pesos grandes para evitar o sobreajuste.
warmup_epochs 3.0 N√ļmero de √©pocas para o aquecimento da taxa de aprendizagem, aumentando gradualmente a taxa de aprendizagem de um valor baixo para a taxa de aprendizagem inicial para estabilizar a forma√ß√£o numa fase inicial.
warmup_momentum 0.8 Momento inicial para a fase de aquecimento, ajustando-se gradualmente ao momento definido durante o período de aquecimento.
warmup_bias_lr 0.1 Taxa de aprendizagem para par√Ęmetros de polariza√ß√£o durante a fase de aquecimento, ajudando a estabilizar o treinamento do modelo nas √©pocas iniciais.
box 7.5 Peso do componente de perda de caixa na fun√ß√£o de perda, influenciando a import√Ęncia dada √† previs√£o exacta das coordenadas da caixa delimitadora.
cls 0.5 Peso da perda de classifica√ß√£o na fun√ß√£o de perda total, afectando a import√Ęncia da previs√£o correcta da classe em rela√ß√£o a outros componentes.
dfl 1.5 Peso da perda focal da distribui√ß√£o, utilizado em determinadas vers√Ķes de YOLO para uma classifica√ß√£o fina.
pose 12.0 Peso da perda de pose nos modelos treinados para a estimativa de pose, influenciando a ênfase na previsão exacta dos pontos-chave da pose.
kobj 2.0 Peso da perda de objetividade do ponto-chave nos modelos de estimação da pose, equilibrando a confiança na deteção com a precisão da pose.
label_smoothing 0.0 Aplica a suavização de rótulos, suavizando os rótulos rígidos para uma mistura do rótulo alvo e uma distribuição uniforme sobre os rótulos, pode melhorar a generalização.
nbs 64 Tamanho nominal do lote para normalização da perda.
overlap_mask True Determina se as m√°scaras de segmenta√ß√£o se devem sobrepor durante o treino, aplic√°vel em tarefas de segmenta√ß√£o de inst√Ęncias.
mask_ratio 4 Rácio de downsample para máscaras de segmentação, que afecta a resolução das máscaras utilizadas durante o treino.
dropout 0.0 Taxa de desistência para regularização em tarefas de classificação, evitando o sobreajuste através da omissão aleatória de unidades durante o treino.
val True Permite a validação durante o treino, permitindo a avaliação periódica do desempenho do modelo num conjunto de dados separado.
plots False Gera e guarda gr√°ficos de m√©tricas de treino e valida√ß√£o, bem como exemplos de previs√£o, fornecendo informa√ß√Ķes visuais sobre o desempenho do modelo e a progress√£o da aprendizagem.

Note on Batch-size Settings

O batch argument can be configured in three ways:

  • Fixed Batch Size: Set an integer value (e.g., batch=16), specifying the number of images per batch directly.
  • Auto Mode (60% GPU Memory): Use batch=-1 to automatically adjust batch size for approximately 60% CUDA memory utilization.
  • Auto Mode with Utilization Fraction: Set a fraction value (e.g., batch=0.70) to adjust batch size based on the specified fraction of GPU memory usage.

Defini√ß√Ķes de aumento e hiperpar√Ęmetros

As técnicas de aumento são essenciais para melhorar a robustez e o desempenho dos modelos YOLO , introduzindo variabilidade nos dados de treino, ajudando o modelo a generalizar melhor para dados não vistos. A tabela seguinte descreve o objetivo e o efeito de cada argumento de aumento:

Argumenta Tipo Predefinição Alcance Descrição
hsv_h float 0.015 0.0 - 1.0 Ajusta a tonalidade da imagem por uma fra√ß√£o da roda de cores, introduzindo variabilidade de cores. Ajuda o modelo a generalizar em diferentes condi√ß√Ķes de ilumina√ß√£o.
hsv_s float 0.7 0.0 - 1.0 Altera a satura√ß√£o da imagem por uma fra√ß√£o, afectando a intensidade das cores. √ötil para simular diferentes condi√ß√Ķes ambientais.
hsv_v float 0.4 0.0 - 1.0 Modifica o valor (brilho) da imagem por uma fra√ß√£o, ajudando o modelo a ter um bom desempenho em v√°rias condi√ß√Ķes de ilumina√ß√£o.
degrees float 0.0 -180 - +180 Roda a imagem aleatoriamente dentro do intervalo de graus especificado, melhorando a capacidade do modelo para reconhecer objectos em v√°rias orienta√ß√Ķes.
translate float 0.1 0.0 - 1.0 Traduz a imagem horizontal e verticalmente por uma fração do tamanho da imagem, ajudando a aprender a detetar objectos parcialmente visíveis.
scale float 0.5 >=0.0 Escala a imagem por um fator de ganho, simulando objectos a diferentes dist√Ęncias da c√Ęmara.
shear float 0.0 -180 - +180 Corta a imagem num grau especificado, imitando o efeito de objectos vistos de √Ęngulos diferentes.
perspective float 0.0 0.0 - 0.001 Aplica uma transformação de perspetiva aleatória à imagem, melhorando a capacidade do modelo para compreender objectos no espaço 3D.
flipud float 0.0 0.0 - 1.0 Vira a imagem ao contrário com a probabilidade especificada, aumentando a variabilidade dos dados sem afetar as características do objeto.
fliplr float 0.5 0.0 - 1.0 Inverte a imagem da esquerda para a direita com a probabilidade especificada, √ļtil para aprender objectos sim√©tricos e aumentar a diversidade do conjunto de dados.
bgr float 0.0 0.0 - 1.0 Inverte os canais de imagem de RGB para BGR com a probabilidade especificada, √ļtil para aumentar a robustez da ordena√ß√£o incorrecta dos canais.
mosaic float 1.0 0.0 - 1.0 Combina quatro imagens de treino numa s√≥, simulando diferentes composi√ß√Ķes de cenas e interac√ß√Ķes de objectos. Altamente eficaz para a compreens√£o de cenas complexas.
mixup float 0.0 0.0 - 1.0 Mistura duas imagens e seus rótulos, criando uma imagem composta. Melhora a capacidade de generalização do modelo, introduzindo ruído de etiqueta e variabilidade visual.
copy_paste float 0.0 0.0 - 1.0 Copia objectos de uma imagem e cola-os noutra, √ļtil para aumentar as inst√Ęncias de objectos e aprender a oclus√£o de objectos.
auto_augment str randaugment - Aplica automaticamente uma política de aumento predefinida (randaugment, autoaugment, augmix), optimizando as tarefas de classificação através da diversificação das características visuais.
erasing float 0.4 0.0 - 0.9 Apaga aleatoriamente uma parte da imagem durante o treino de classificação, encorajando o modelo a concentrar-se em características menos óbvias para o reconhecimento.
crop_fraction float 1.0 0.1 - 1.0 Corta a imagem de classifica√ß√£o para uma fra√ß√£o do seu tamanho para enfatizar as caracter√≠sticas centrais e adaptar-se √†s escalas dos objectos, reduzindo as distrac√ß√Ķes de fundo.

Estas defini√ß√Ķes podem ser ajustadas para satisfazer os requisitos espec√≠ficos do conjunto de dados e da tarefa em causa. A experimenta√ß√£o de valores diferentes pode ajudar a encontrar a estrat√©gia de aumento ideal que conduz ao melhor desempenho do modelo.

Informação

Para mais informa√ß√Ķes sobre as opera√ß√Ķes de refor√ßo da forma√ß√£o, ver a sec√ß√£o de refer√™ncia.

Registo

Ao treinar um modelo YOLOv8 , pode ser √ļtil acompanhar o desempenho do modelo ao longo do tempo. √Č aqui que o registo entra em jogo. Ultralytics' YOLO fornece suporte para tr√™s tipos de registadores - Comet, ClearML, e TensorBoard.

Para usar um registrador, seleciona-o no menu suspenso no trecho de código acima e executa-o. O registador escolhido será instalado e inicializado.

Comet

Comet √© uma plataforma que permite aos cientistas de dados e aos programadores acompanhar, comparar, explicar e otimizar experi√™ncias e modelos. Fornece funcionalidades como m√©tricas em tempo real, diferen√ßas de c√≥digo e rastreio de hiperpar√Ęmetros.

Para utilizar Comet:

Exemplo

# pip install comet_ml
import comet_ml

comet_ml.init()

Não te esqueças de iniciar sessão na tua conta Comet no respetivo sítio Web e de obter a tua chave API. Terás de a adicionar às tuas variáveis de ambiente ou ao teu script para registar as tuas experiências.

ClearML

ClearML é uma plataforma de código aberto que automatiza o acompanhamento de experiências e ajuda na partilha eficiente de recursos. Foi concebida para ajudar as equipas a gerir, executar e reproduzir o seu trabalho de ML de forma mais eficiente.

Para utilizar ClearML:

Exemplo

# pip install clearml
import clearml

clearml.browser_login()

Depois de executares este script, ter√°s de iniciar sess√£o na tua conta ClearML no browser e autenticar a tua sess√£o.

TensorBoard

O TensorBoard é um conjunto de ferramentas de visualização para TensorFlow. Permite-te visualizar o teu gráfico TensorFlow , traçar métricas quantitativas sobre a execução do teu gráfico e mostrar dados adicionais como imagens que passam por ele.

Para utilizar o TensorBoard no Google Colab:

Exemplo

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Para utilizar o TensorBoard localmente, executa o comando abaixo e visualiza os resultados em http://localhost:6006/.

Exemplo

tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Isto irá carregar o TensorBoard e direccioná-lo para o diretório onde os teus registos de treino estão guardados.

Depois de configurares o teu registador, podes prosseguir com o treino do teu modelo. Todas as métricas de treino serão automaticamente registadas na plataforma escolhida e podes aceder a esses registos para monitorizar o desempenho do teu modelo ao longo do tempo, comparar diferentes modelos e identificar áreas de melhoria.



Created 2023-11-12, Updated 2024-06-10
Authors: glenn-jocher (14), dependabot (1), fcakyon (1), Laughing-q (2), Burhan-Q (1)

Coment√°rios