Ir para o conteúdo

Treinamento na Nuvem

Ultralytics Platform Cloud Training oferece treinamento com um clique em GPUs em nuvem, tornando o treinamento de modelos acessível sem configurações complexas. Treine modelos YOLO com transmissão de métricas em tempo real e salvamento automático de checkpoints.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Diálogo de Treinamento

Inicie o treinamento a partir da UI da plataforma clicando em Novo Modelo em qualquer página de projeto (ou em Treinar a partir de uma página de conjunto de dados). O diálogo de treinamento possui duas abas: Treinamento na Nuvem e Treinamento Local.

Plataforma Ultralytics: Diálogo de Treinamento - Aba Nuvem

Passo 1: Selecionar Modelo Base

Escolha entre os modelos oficiais YOLO26 ou seus próprios modelos treinados:

CategoriaDescrição
OficialTodos os 25 modelos YOLO26 (5 tamanhos x 5 tarefas)
Seus ModelosSeus modelos concluídos para ajuste fino

Os modelos oficiais são organizados por tipo de tarefa (Detect, Segment, Pose, OBB, Classify) com tamanhos de nano a xlarge.

Passo 2: Selecionar Conjunto de Dados

Escolha um conjunto de dados para treinar (veja Conjuntos de Dados):

OpçãoDescrição
OficialConjuntos de dados selecionados da Ultralytics
Seus Conjuntos de DadosConjuntos de dados que você carregou

Requisitos do Conjunto de Dados

Conjuntos de dados devem estar em ready status com pelo menos 1 imagem na divisão de treinamento, 1 imagem na divisão de validação ou teste, e pelo menos 1 imagem rotulada.

Incompatibilidade de Tarefa

Um aviso de incompatibilidade de tarefa aparece se a tarefa do modelo (por exemplo, detect) não corresponder à tarefa do conjunto de dados (por exemplo, segment). O treino falhará se prosseguir com tarefas incompatíveis. Certifique-se de que tanto o modelo quanto o conjunto de dados usam o mesmo tipo de tarefa, conforme descrito nos guias de tarefas.

Passo 3: Configurar Parâmetros

Definir os parâmetros centrais de treinamento:

ParâmetroDescriçãoPadrão
ÉpocasNúmero de iterações de treinamento100
Tamanho do Lote (Batch Size)Amostras por iteração16
Tamanho da ImagemResolução de entrada (menu suspenso 320/416/512/640/1280, ou 32-4096 no editor YAML)640
Nome da ExecuçãoNome opcional para a execução do treinamentoautomático

Passo 4: Configurações Avançadas (Opcional)

Expanda Configurações Avançadas para acessar o editor de parâmetros completo baseado em yaml com mais de 40 parâmetros de treinamento organizados por grupo (consulte a referência de configuração):

GrupoParâmetros
Taxa de Aprendizadolr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OtimizadorSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Pesos de Perdacaixa, classe, DFL, pose, kobj, suavização de rótulos
Aumento de Corhsv_h, hsv_s, hsv_v
Aumento Geométrico.graus, transladar, escalar, cisalhar, perspectiva
Aumento por Inversão e Mistura.flipud, fliplr, mosaic, mixup, copy_paste
Controle de Treinamentopatience, seed, deterministic, amp, cos_lr, close_mosaic, save_period
Conjunto de dadosfração, congelar, single_cls, ret, multi-escala, retomar

Os parâmetros são sensíveis à tarefa (por exemplo, copy_paste mostra apenas para tarefas de segmentação, pose/kobj apenas para tarefas de pose). A Modificado o badge aparece quando os valores diferem dos padrões, e você pode redefinir todos para os padrões com o botão de reset.

Exemplo: Ajuste de Aumento para Pequenos Conjuntos de Dados

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Passo 5: Selecionar GPU (Aba Nuvem)

Escolha sua GPU na Ultralytics Cloud:

Plataforma Ultralytics: Diálogo de Treinamento - Seletor de GPU e Custo

GPUVRAMCusto/Hora
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

Seleção de GPU

  • RTX PRO 6000: 96 GB de geração Blackwell, padrão recomendado para a maioria dos trabalhos
  • A100 SXM: Necessário para grandes tamanhos de lote ou modelos grandes
  • H100/H200: Máximo desempenho para treino em que o tempo é um fator determinante (o H200 requer a versão Pro ou Enterprise)
  • B200: Arquitetura NVIDIA para cargas de trabalho de ponta (requer a versão Pro ou Enterprise)

O diálogo mostra seu saldo atual e um botão de Recarga. Um custo e duração estimados são calculados com base na sua configuração (tamanho do modelo, imagens do dataset, épocas, velocidade da GPU).

Passo 6: Iniciar Treinamento

Clique em Iniciar Treinamento para iniciar seu trabalho. A Plataforma:

  1. Provisiona uma instância de GPU
  2. Baixa seu conjunto de dados
  3. Inicia o treinamento
  4. Transmite métricas em tempo real

Ciclo de Vida do Trabalho de Treinamento

Os trabalhos de treinamento progridem pelos seguintes status:

StatusDescrição
PendenteTarefa enviada, aguardando alocação de GPU
IniciandoGPU provisionada, baixando conjunto de dados e modelo
Em execuçãoTreinamento em andamento, métricas sendo transmitidas em tempo real
ConcluídoTreinamento concluído com sucesso
FalhouTreinamento falhou (ver logs do console para detalhes)
CanceladoO treino foi cancelado pelo utilizador

Créditos Gratuitos

Novas contas recebem créditos de inscrição — $5 para e-mails pessoais e $25 para e-mails corporativos. Verifique seu saldo em Configurações > Cobrança.

Plataforma Ultralytics: Progresso do Treinamento com Gráficos

Monitorar Treinamento

Visualize o progresso do treinamento em tempo real na guia Train da página do modelo:

Subguia de Gráficos

Plataforma Ultralytics Gráficos em Tempo Real de Treinamento de Modelos

MétricaDescrição
PerdaPerda de treinamento e validação
mAPPrecisão Média Média
PrecisãoPrevisões positivas corretas
RecallVerdades fundamentais detectadas

Subguia do Console

Saída do console ao vivo com suporte a cores ANSI, barras de progresso e detecção de erros.

Subguia Sistema

Utilização da GPU, memória, temperatura, CPU e uso de disco em tempo real.

Pontos de Controlo

Os checkpoints são salvos automaticamente:

  • A cada época: Pesos mais recentes salvos
  • Melhor modelo: Checkpoint com o maior mAP preservado
  • Modelo final: Pesos ao término do treinamento

Cancelar Treinamento

Clique em Cancelar Treinamento na página do modelo para interromper um trabalho em execução:

  • A instância de computação é encerrada
  • Os créditos param de ser cobrados
  • Os checkpoints salvos até aquele ponto são preservados

Treinamento Remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Treinar em seu próprio hardware enquanto transmite métricas para a plataforma.

Requisito de Versão do Pacote

A integração com a Plataforma requer ultralytics>=8.4.14. Versões anteriores NÃO funcionarão com a Plataforma.

pip install -U ultralytics

Configurar Chave API

  1. Ir para Settings > Profile (seção Chaves de API)
  2. Crie uma nova chave (ou a plataforma cria uma automaticamente quando você abre a aba Treinamento Local)
  3. Defina a variável de ambiente:
export ULTRALYTICS_API_KEY="your_api_key"

Treinar com Streaming

Use o comando project e name parâmetros para transmitir métricas:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

A aba Treinamento Local na caixa de diálogo de treinamento mostra um comando pré-configurado com sua chave de API, parâmetros selecionados e argumentos avançados incluídos.

Utilizar Conjuntos de Dados da Plataforma

Treinar com conjuntos de dados armazenados na plataforma usando o ul:// Formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

O ul:// O formato URI baixa e configura automaticamente seu conjunto de dados. O modelo é automaticamente vinculado ao conjunto de dados na plataforma (ver Utilizar Conjuntos de Dados da Plataforma).

Faturamento

Os custos de treinamento são baseados no uso da GPU:

Estimativa de custos

Antes do início do treinamento, a plataforma estima o custo total por meio de:

  1. Estimando segundos por época a partir do tamanho do conjunto de dados, complexidade do modelo, tamanho da imagem, tamanho do lote e velocidade da GPU
  2. Calculando o tempo total de treinamento multiplicando segundos por época pelo número de épocas, e depois adicionando a sobrecarga de inicialização
  3. Calculando o custo estimado a partir do total de horas de treinamento multiplicado pela taxa horária da GPU

Fatores que afetam o custo:

FatorImpacto
Tamanho do conjunto de dadosMais imagens = maior tempo de treinamento (linha de base: ~2,8s de computação por 1000 imagens em RTX 4090)
Tamanho do ModeloModelos maiores (m, l, x) treinam mais lentamente do que (n, s)
Número de épocasMultiplicador direto no tempo de formação
Tamanho da ImagemUm imgsz maior aumenta o custo computacional: 320px=0.25x, 640px=1.0x (referência), 1280px=4.0x
Tamanho do Lote (Batch Size)Lotes maiores são mais eficientes (lote 32 = ~0.85x tempo, lote 8 = ~1.2x tempo vs linha de base do lote 16)
GPUGPUs mais rápidas reduzem o tempo de treinamento (por exemplo, H100 SXM = ~3.4x mais rápido que RTX 4090)
Sobrecarga de InicializaçãoAté 5 minutos para inicialização da instância, download de dados e aquecimento (escala com o tamanho do conjunto de dados)

Exemplos de custos

Estimativas

As estimativas de custo são aproximadas e dependem de muitos fatores. O diálogo de treinamento mostra uma estimativa em tempo real antes de você iniciar o treinamento.

CenárioGPUCusto Estimado
500 imagens, YOLO26n, 50 épocasRTX 4090~$0,50
1000 imagens, YOLO26n, 100 épocasRTX PRO 6000~$5
5000 imagens, YOLO26s, 100 épocasH100 SXM~$23

Fluxo de Faturação

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Fluxo de cobrança do treinamento na nuvem:

  1. Estimativa: Custo calculado antes do início da formação
  2. Verificação de Saldo: Os créditos disponíveis são verificados antes do lançamento
  3. Treinar: O trabalho é executado no recurso de computação selecionado
  4. Cobrança: O custo final é baseado no tempo de execução real

Proteção ao Consumidor

A faturação rastreia o uso real de computação, incluindo execuções parciais que são canceladas. Nunca lhe são cobradas execuções de treino falhadas.

Faturação por Estado do Trabalho

StatusCobrado?
ConcluídoSim — tempo real de GPU utilizado
CanceladoSim — tempo de GPU desde o início até o cancelamento
FalhouNão — execuções falhas não são cobradas
PresoParcial — apenas o tempo real de treinamento é cobrado

Sem Cobrança por Erros

Se uma execução de treinamento falhar devido a um erro de configuração, problema de falta de memória ou qualquer outra falha, você não será cobrado. Apenas o tempo de computação bem-sucedido é faturado. Trabalhos travados (sem atividade por mais de 4 horas) são automaticamente encerrados e cobrados apenas pelo tempo em que a GPU esteve ativamente treinando, e não pelo tempo ocioso.

Métodos de Pagamento

MétodoDescrição
Saldo da ContaCréditos pré-carregados
Pagamento por TarefaCobrança na conclusão da tarefa

Saldo Mínimo

O início do treino requer um saldo disponível positivo e créditos suficientes para o custo estimado da tarefa.

Ver Custos de Treino

Após o treinamento, visualize os custos detalhados na aba Faturamento:

  • Detalhamento de custo por época
  • Tempo total de GPU
  • Baixar relatório de custos

Detalhes de Faturação do Treino na Plataforma Ultralytics

Dicas de Treino

Escolher o Tamanho Certo do Modelo

ModeloParâmetrosIdeal Para
YOLO26n2.4MDispositivos de borda em tempo real
YOLO26s9.5MEquilíbrio entre velocidade e precisão
YOLO26m20.4MMaior precisão
YOLO26l24.8MPrecisão para produção
YOLO26x55.7MPrecisão máxima

Otimizar Tempo de Treino

Estratégias de Economia de Custos

  1. Comece pequeno: Teste com 10-20 épocas em uma GPU de baixo custo para verificar o funcionamento do seu conjunto de dados e configuração.
  2. Use a GPU apropriada: A RTX PRO 6000 lida bem com a maioria das cargas de trabalho
  3. Valide o conjunto de dados: Corrija problemas de rotulagem antes de gastar com o treinamento
  4. Monitorar precocemente: Cancele o treinamento se a perda estabilizar — você só paga pelo tempo de computação utilizado

Resolução de Problemas

ProblemaSolução
Treinamento travado em 0%Verifique o formato do conjunto de dados, tente novamente
Memória insuficienteReduza o tamanho do lote ou use uma GPU maior
Precisão baixaAumente as épocas, verifique a qualidade dos dados
Treinamento lentoConsidere uma GPU mais rápida
Erro de incompatibilidade de tarefaGaranta que as tarefas do modelo e do conjunto de dados correspondam

FAQ

Quanto tempo leva o treinamento?

O tempo de treinamento depende de:

  • Tamanho do dataset
  • Tamanho do modelo
  • Número de épocas
  • GPU selecionada

Tempos típicos (1000 imagens, 100 épocas):

ModeloRTX PRO 6000A100
YOLO26n20 min20 min
YOLO26m40 min40 min
YOLO26x80 min80 min

Posso treinar durante a noite?

Sim, o treinamento continua até a conclusão. Você receberá uma notificação quando o treinamento terminar. Certifique-se de que sua conta tenha saldo suficiente para o treinamento baseado em épocas.

O que acontece se eu ficar sem créditos?

Se o seu saldo de créditos chegar a zero durante uma execução de treinamento, o treinamento continua até a conclusão e seu saldo fica negativo. Isso garante que seu trabalho de treinamento nunca seja interrompido no meio da execução.

Após a conclusão do treinamento, você precisará adicionar créditos para que seu saldo volte a ser positivo antes de iniciar novos trabalhos de treinamento. Seu modelo concluído, checkpoints e todos os artefatos de treinamento são totalmente preservados, independentemente do saldo.

Saldo Negativo

Um saldo negativo apenas impede o início de novos trabalhos de treino. As implementações existentes e outras funcionalidades da plataforma continuam a funcionar normalmente. Adicione créditos através de Definições > Faturação ou ative o carregamento automático para evitar interrupções.

O que acontece se meu treinamento custar mais do que o estimado?

As estimativas de custo são aproximadas — o tempo real de treinamento pode variar devido a fatores como velocidade de carregamento de dados, aquecimento da GPU e comportamento de convergência do modelo. Se o custo real exceder a estimativa, seu saldo pode ficar negativo (veja acima). A plataforma não interrompe o treinamento com base na estimativa.

Para gerir custos:

  • Monitorar o progresso do treinamento em tempo real e cancelar antecipadamente, se necessário
  • Ativar recarga automática para reabastecer créditos automaticamente
  • Comece com execuções mais curtas (menos épocas) para calibrar as expectativas

Posso usar argumentos de treino personalizados?

Sim, expanda a secção Definições Avançadas na caixa de diálogo de treino para aceder a um editor yaml com mais de 40 parâmetros configuráveis. Os valores não predefinidos são incluídos nos comandos de treino na cloud e local.

O editor YAML também suporta importar configurações de execuções de treinamento anteriores:

  • Copiar de modelo existente: Na página de qualquer modelo concluído, o cartão de Configuração de Treinamento possui um botão Copiar como JSON. Copie o JSON e cole-o diretamente no editor YAML — ele detecta automaticamente o formato JSON e importa todos os parâmetros.
  • Colar YAML ou JSON: Cole qualquer configuração de treinamento YAML ou JSON válida no editor. Os parâmetros são validados automaticamente, com valores fora do intervalo sendo ajustados e avisos exibidos.
  • Arrastar e soltar arquivos: Arraste um .yaml ou .json arquivo diretamente no editor para importar seus parâmetros.

Plataforma Ultralytics: Diálogo de Treinamento - Copiar Configuração de Treinamento JSON

Isso facilita a reprodução ou iteração em configurações de treinamento anteriores sem a necessidade de reinserir manualmente cada parâmetro.

Posso treinar a partir de uma página de conjunto de dados?

Sim, o botão Treinar nas páginas de conjuntos de dados abre a caixa de diálogo de treino com o conjunto de dados pré-selecionado e bloqueado. Em seguida, seleciona um projeto e um modelo para iniciar o treino.

Referência de Parâmetros de Treinamento

ParâmetroTipoPadrãoIntervaloDescrição
epochsint1001-10000Número de épocas de treino
batchint161-512Tamanho do lote (Batch size)
imgszint64032-4096Tamanho da imagem de entrada
patienceint1001-1000Paciência para early stopping
seedint00-2147483647Semente aleatória para reprodutibilidade
deterministicbooleanoVerdadeiro-Modo de treinamento determinístico
ampbooleanoVerdadeiro-Precisão mista automática
close_mosaicint100-50Desativar mosaico nas N épocas finais
save_periodint-1-1-100Salvar checkpoint a cada N épocas
workersint80-64Workers do dataloader
cacheselecionarfalsoRAM/disco/falsoCachear imagens
ParâmetroTipoPadrãoIntervaloDescrição
lr0float0.010.0001-0.1Taxa de aprendizado inicial
lrffloat0.010.01-1.0Fator LR final
momentumfloat0.9370.6-0.98Momento SGD
weight_decayfloat0.00050.0-0.001Regularização L2
warmup_epochsfloat3.00-5Épocas de aquecimento
warmup_momentumfloat0.80.5-0.95Momento de aquecimento
warmup_bias_lrfloat0.10.0-0.2LR de bias de aquecimento
cos_lrbooleanoFalso-Scheduler de LR cosseno
ParâmetroTipoPadrãoIntervaloDescrição
hsv_hfloat0.0150.0-0.1Aumento de matiz HSV
hsv_sfloat0.70.0-1.0Saturação HSV
hsv_vfloat0.40.0-1.0Valor HSV
degreesfloat0.0-45-45Graus de rotação
translatefloat0.10.0-1.0Fração de translação
scalefloat0.50.0-1.0Fator de escala
shearfloat0.0-10-10Graus de cisalhamento
perspectivefloat0.00.0-0.001Transformação de perspectiva
fliplrfloat0.50.0-1.0Probabilidade de inversão horizontal
flipudfloat0.00.0-1.0Probabilidade de inversão vertical
mosaicfloat1.00.0-1.0Aumento de mosaico
mixupfloat0.00.0-1.0Aumento Mixup
copy_pastefloat0.00.0-1.0Copiar-colar (segment)
ParâmetroTipoPadrãoIntervaloDescrição
fractionfloat1.00.1-1.0Fração do dataset a utilizar
freezeintnulo0-100Número de camadas a congelar
single_clsbooleanoFalso-Tratar todas as classes como uma única classe
rectbooleanoFalso-Treinamento retangular
multi_scalefloat0.00.0-1.0Intervalo de treinamento multi-escala
valbooleanoVerdadeiro-Executar validação durante o treinamento
resumebooleanoFalso-Retomar o treinamento a partir de um checkpoint
ValorDescrição
autoSeleção automática (padrão)
SGDDescida do Gradiente Estocástico
MuSGDOtimizador Muon SGD
AdamOtimizador Adam
AdamWAdam com decaimento de peso
NAdamOtimizador NAdam
RAdamOtimizador RAdam
RMSPropOtimizador RMSProp
AdamaxOtimizador Adamax
ParâmetroTipoPadrãoIntervaloDescrição
boxfloat7.51-50Peso da perda da caixa
clsfloat0.50.2-4Peso da perda de classificação
dflfloat1.50.4-6Perda focal de distribuição
posefloat12.01-50Peso da perda de pose (somente pose)
kobjfloat1.00.5-10Objetividade do ponto-chave (pose)
label_smoothingfloat0.00.0-0.1Fator de suavização de rótulos

Parâmetros Específicos da Tarefa

Alguns parâmetros aplicam-se apenas a tarefas específicas:

  • Apenas tarefas de detecção (detect, segment, pose, OBB — não classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • segment apenas: copy_paste
  • Somente pose: pose (peso da perda), kobj (objectness de keypoint)


📅 Criado há 2 meses ✏️ Atualizado há 2 dias
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

Comentários