Ir para o conteúdo

Treinamento na Nuvem

Ultralytics Platform Cloud Training oferece treinamento com um clique em GPUs em nuvem, tornando o treinamento de modelos acessível sem configurações complexas. Treine modelos YOLO com transmissão de métricas em tempo real e salvamento automático de checkpoints.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Diálogo de formação

Comece o treino a partir da interface do utilizador da plataforma clicando em Novo modelo em qualquer página do projeto (ou Treinar a partir de uma página de conjunto de dados). A caixa de diálogo de treino tem duas guias: Treino na nuvem e Treino local.

Treinamento Ultralytics Guia Nuvem

Passo 1: Selecione o modelo base

Escolha entre os modelos oficiais do YOLO26 ou os seus próprios modelos treinados:

CategoriaDescrição
OficialTodos os 25 modelos YOLO26 (5 tamanhos x 5 tarefas)
Os seus modelosOs seus modelos concluídos para ajuste fino

Os modelos oficiais são organizados por tipo de tarefa (Detectar, Segmentar, Posicionar, OBB, Classificar) com tamanhos que variam de nano a extragrande.

Passo 2: Selecione o conjunto de dados

Escolha um conjunto de dados para treinar (consulte Conjuntos de dados):

OpçãoDescrição
OficialConjuntos de dados selecionados pela Ultralytics
Seus Conjuntos de DadosConjuntos de dados que você carregou

Requisitos do conjunto de dados

Os conjuntos de dados devem estar em ready estado com pelo menos 1 imagem na divisão de treino, 1 imagem na divisão de validação ou teste e pelo menos 1 imagem rotulada.

Incompatibilidade de tarefas

Um aviso de incompatibilidade de tarefas é exibido se a tarefa do modelo (por exemplo, detect) não corresponder à tarefa do conjunto de dados (por exemplo, segment). O treinamento falhará se você prosseguir com tarefas incompatíveis. Certifique-se de que o modelo e o conjunto de dados usem o mesmo tipo de tarefa, conforme descrito nos guias de tarefas.

Passo 3: Configurar os parâmetros

Definir os parâmetros principais do treino:

ParâmetroDescriçãoPadrão
ÉpocasNúmero de iterações de treinamento100
Tamanho do Lote (Batch Size)Amostras por iteração16
Tamanho da ImagemResolução de entrada (menu suspenso 320/416/512/640/1280 ou 32-4096 no editor YAML)640
Nome da execuçãoNome opcional para a corrida de treinoautomóvel

Passo 4: Configurações avançadas (opcional)

Expanda Configurações avançadas para aceder ao editor de parâmetros completo baseado em YAML com mais de 40 parâmetros de treino organizados por grupo (consulte a referência de configuração):

GrupoParâmetros
Taxa de Aprendizadolr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OtimizadorSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Peso perdidocaixa, cls, dfl, pose, kobj, suavização de rótulo
Aumento da corhsv_h, hsv_s, hsv_v
Aumento geométrico.graus, traduzir, escalar, cisalhar, perspectiva
Flip & Mix Augment.flipud, fliplr, mosaico, mistura, copiar_colar
Controlo da Formaçãopaciência, semente, determinístico, amp, cos_lr, close_mosaic, save_period
Conjunto de dadosfração, congelar, single_cls, retângulo, multi_escala, retomar

Os parâmetros são sensíveis à tarefa (por exemplo, copy_paste apenas mostra para segment , pose/kobj apenas para tarefas de pose). A Modificado O ícone aparece quando os valores diferem dos padrões, e você pode redefinir todos para os padrões com o botão Redefinir.

Exemplo: Aumento de ajuste para pequenos conjuntos de dados

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Passo 5: Selecione GPU guia Nuvem)

Escolha GPU sua GPU Ultralytics :

Formação Ultralytics Diálogo Gpu e custo

GPUVRAMCusto/Hora
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

Seleção de GPU

  • RTX PRO 6000: 96 GB da geração Blackwell, padrão recomendado para a maioria dos trabalhos
  • A100 SXM: Necessário para lotes grandes ou modelos grandes
  • H100/H200: Desempenho máximo para treinos com restrições de tempo
  • B200: Arquitetura NVIDIA para cargas de trabalho de ponta

A caixa de diálogo mostra o seu saldo atual e um botão Recarregar. O custo e a duração estimados são calculados com base na sua configuração (tamanho do modelo, imagens do conjunto de dados, épocas, GPU ).

Passo 6: Comece o treino

Clique em Iniciar Treinamento para iniciar seu trabalho. A Plataforma:

  1. Provisiona uma instância de GPU
  2. Baixa seu conjunto de dados
  3. Inicia o treinamento
  4. Transmite métricas em tempo real

Ciclo de vida da formação profissional

Os trabalhos de formação passam pelos seguintes estados:

StatusDescrição
PendenteTrabalho enviado, aguardando GPU da GPU
ComeçandoGPU , a descarregar conjunto de dados e modelo
CorridaTreinamento em andamento, métricas transmitidas em tempo real
ConcluídoTreinamento concluído com sucesso
FalhaA formação falhou (consulte os registos da consola para obter detalhes)
CanceladoO treinamento foi cancelado pelo utilizador.

Créditos Gratuitos

Novas contas recebem créditos de inscrição — US$ 5 para e-mails pessoais e US$ 25 para e-mails corporativos. Verifique o seu saldo em Configurações > Faturamento.

Progresso da formação Ultralytics com gráficos

Monitorar Treinamento

Veja o progresso do treino em tempo real no separador Treinar da página do modelo:

Subguia Gráficos

Ultralytics Treinamento de modelos Gráficos em tempo real

MétricaDescrição
PerdaPerda de treinamento e validação
mAPPrecisão Média Média
PrecisãoPrevisões positivas corretas
RecallVerdades fundamentais detectadas

Subguia Console

Saída do console ao vivo com suporte a cores ANSI, barras de progresso e detecção de erros.

Subguia Sistema

GPU em tempo real, memória, temperatura, CPU e utilização do disco.

Pontos de Controlo

Os checkpoints são salvos automaticamente:

  • A cada época: Pesos mais recentes salvos
  • Melhor modelo: Checkpoint com o maior mAP preservado
  • Modelo final: Pesos ao término do treinamento

Cancelar Treinamento

Clique em Cancelar Treinamento na página do modelo para interromper um trabalho em execução:

  • A instância de computação foi encerrada
  • Os créditos param de ser cobrados
  • Os pontos de verificação guardados até esse momento são preservados

Treinamento Remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Treine no seu próprio hardware enquanto transmite métricas para a plataforma.

Requisito de Versão do Pacote

A integração da plataforma requer ultralytics>= 8.4.14. Versões inferiores NÃO funcionarão com a plataforma.

pip install -U ultralytics

Configurar Chave API

  1. Ir para Settings > Profile (Secção Chaves API)
  2. Crie uma nova chave (ou a plataforma cria uma automaticamente quando abre o separador Formação local)
  3. Defina a variável de ambiente:
export ULTRALYTICS_API_KEY="your_api_key"

Treinar com Streaming

Use o comando project e name parâmetros para transmitir métricas:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

A guia Treinamento local na caixa de diálogo de treinamento mostra um comando pré-configurado com a sua chave API, parâmetros selecionados e argumentos avançados incluídos.

Utilizar Conjuntos de Dados da Plataforma

Treine com conjuntos de dados armazenados na plataforma usando o ul:// formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

O ul:// O formato URI descarrega e configura automaticamente o seu conjunto de dados. O modelo é automaticamente ligado ao conjunto de dados na plataforma (ver Utilizar Conjuntos de Dados da Plataforma).

Faturamento

Os custos de treinamento são baseados no uso da GPU:

Estimativa de custos

Antes do início do treinamento, a plataforma estima o custo total da seguinte forma:

  1. Estimativa de segundos por época a partir do tamanho do conjunto de dados, complexidade do modelo, tamanho da imagem, tamanho do lote e GPU
  2. Calcular o tempo total de treino multiplicando os segundos por época pelo número de épocas e, em seguida, adicionando a sobrecarga de inicialização
  3. Calcular o custo estimado a partir do total de horas de formação multiplicado pela tarifa horária GPU

Fatores que afetam o custo:

FatorImpacto
Tamanho do conjunto de dadosMais imagens = maior tempo de treino (linha de base: ~2,8 s de computação por 1000 imagens no RTX 4090)
Tamanho do ModeloModelos maiores (m, l, x) treinam mais lentamente do que (n, s)
Número de épocasMultiplicador direto no tempo de formação
Tamanho da ImagemImagens maiores aumentam a computação: 320 px = 0,25x, 640 px = 1,0x (linha de base), 1280 px = 4,0x
Tamanho do Lote (Batch Size)Lotes maiores são mais eficientes (lote 32 = ~0,85x tempo, lote 8 = ~1,2x tempo vs. lote 16 de referência)
GPUGPUs mais rápidas reduzem o tempo de treinamento (por exemplo, H100 SXM = ~3,4x mais rápido que RTX 4090)
Despesas gerais de arranqueAté 5 minutos para inicialização de instâncias, download de dados e aquecimento (varia de acordo com o tamanho do conjunto de dados)

Exemplos de custos

Estimativas

As estimativas de custo são aproximadas e dependem de muitos fatores. A caixa de diálogo de formação mostra uma estimativa em tempo real antes de iniciar a formação.

CenárioGPUCusto estimado
500 imagens, YOLO26n, 50 épocasRTX 4090~$0,50
1000 imagens, YOLO26n, 100 épocasRTX PRO 6000~$5
5000 imagens, YOLO26s, 100 épocasH100 SXM~$23

Fluxo de faturação

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Fluxo de faturamento do treinamento em nuvem:

  1. Estimativa: Custo calculado antes do início da formação
  2. Verificação do saldo: os créditos disponíveis são verificados antes do lançamento
  3. Treinar: O trabalho é executado na computação selecionada
  4. Custo: O custo final é baseado no tempo de execução real

Proteção ao Consumidor

A faturação acompanha a utilização real da computação, incluindo execuções parciais que são canceladas.

Métodos de Pagamento

MétodoDescrição
Saldo da ContaCréditos pré-carregados
Pagamento por TarefaCobrança na conclusão da tarefa

Saldo Mínimo

O início do treinamento requer um saldo disponível positivo e créditos suficientes para cobrir o custo estimado do trabalho.

Ver Custos de Treino

Após o treinamento, visualize os custos detalhados na aba Faturamento:

  • Detalhamento de custo por época
  • Tempo total de GPU
  • Baixar relatório de custos

Detalhes de faturação da formação Ultralytics

Dicas de Treino

Escolher o Tamanho Certo do Modelo

ModeloParâmetrosIdeal Para
YOLO26n2.4MDispositivos de borda em tempo real
YOLO26s9.5MEquilíbrio entre velocidade e precisão
YOLO26m20.4MMaior precisão
YOLO26l24.8MPrecisão para produção
YOLO26x55.7MPrecisão máxima

Otimizar Tempo de Treino

Estratégias de redução de custos

  1. Comece aos poucos: teste com 10 a 20 épocas em uma GPU econômica GPU verificar o seu conjunto de dados e a configuração do trabalho.
  2. Use GPU adequada: a RTX PRO 6000 lida bem com a maioria das cargas de trabalho
  3. Validar o conjunto de dados: corrigir problemas de rotulagem antes de investir em treinamento
  4. Monitore antecipadamente: cancele o treinamento se a perda se estabilizar — você só paga pelo tempo de computação utilizado

Resolução de Problemas

ProblemaSolução
Treinamento travado em 0%Verifique o formato do conjunto de dados, tente novamente
Memória insuficienteReduza o tamanho do lote ou use uma GPU maior
Precisão baixaAumente as épocas, verifique a qualidade dos dados
Treinamento lentoConsidere uma GPU mais rápida
Erro de incompatibilidade de tarefasCertifique-se de que as tarefas do modelo e do conjunto de dados correspondam

FAQ

Quanto tempo leva o treinamento?

O tempo de treinamento depende de:

  • Tamanho do dataset
  • Tamanho do modelo
  • Número de épocas
  • GPU selecionada

Tempos típicos (1000 imagens, 100 épocas):

ModeloRTX PRO 6000A100
YOLO26n20 min20 min
YOLO26m40 min40 min
YOLO26x80 min80 min

Posso treinar durante a noite?

Sim, o treinamento continua até a conclusão. Você receberá uma notificação quando o treinamento terminar. Certifique-se de que sua conta tenha saldo suficiente para o treinamento baseado em épocas.

O que acontece se eu ficar sem créditos?

O treinamento pausa no final da época atual. Seu checkpoint é salvo, e você pode retomar após adicionar créditos.

Posso usar argumentos de treino personalizados?

Sim, expanda a secção Configurações avançadas na caixa de diálogo de treino para aceder a um editor YAML com mais de 40 parâmetros configuráveis. Os valores não padrão estão incluídos nos comandos de treino na nuvem e locais.

Posso treinar a partir de uma página de conjunto de dados?

Sim, o botão Treinar nas páginas do conjunto de dados abre a caixa de diálogo de treino com o conjunto de dados pré-selecionado e bloqueado. Em seguida, selecione um projeto e um modelo para iniciar o treino.

Referência de Parâmetros de Treinamento

ParâmetroTipoPadrãoIntervaloDescrição
epochsint1001-10000Número de épocas de treino
batchint161-512Tamanho do lote (Batch size)
imgszint64032-4096Tamanho da imagem de entrada
patienceint1001-1000Paciência para early stopping
seedint00-2147483647Semente aleatória para reprodutibilidade
deterministicbooleanoVerdadeiro-Modo de treino determinístico
ampbooleanoVerdadeiro-Precisão mista automática
close_mosaicint100-50Desativar mosaico nas últimas N épocas
save_periodint-1-1-100Salvar ponto de verificação a cada N épocas
workersint80-64Workers do dataloader
cacheselecionarfalsoram/disco/falsoImagens em cache
ParâmetroTipoPadrãoIntervaloDescrição
lr0float0.010,0001-0,1Taxa de aprendizado inicial
lrffloat0.010,01-1,0Fator LR final
momentumfloat0.9370,6-0,98Momento SGD
weight_decayfloat0.00050,0-0,001Regularização L2
warmup_epochsfloat3.00-5Épocas de aquecimento
warmup_momentumfloat0.80,5-0,95Impulso de aquecimento
warmup_bias_lrfloat0.10,0-0,2Biais de aquecimento LR
cos_lrbooleanoFalso-Scheduler de LR cosseno
ParâmetroTipoPadrãoIntervaloDescrição
hsv_hfloat0.0150,0-0,1Aumento de matiz HSV
hsv_sfloat0.70.0-1.0Saturação HSV
hsv_vfloat0.40.0-1.0Valor HSV
degreesfloat0.0-45-45Graus de rotação
translatefloat0.10.0-1.0Fração de translação
scalefloat0.50.0-1.0Fator de escala
shearfloat0.0-10-10Graus de cisalhamento
perspectivefloat0.00,0-0,001Transformação de perspetiva
fliplrfloat0.50.0-1.0Probabilidade de inversão horizontal
flipudfloat0.00.0-1.0Probabilidade de inversão vertical
mosaicfloat1.00.0-1.0Aumento de mosaico
mixupfloat0.00.0-1.0Aumento Mixup
copy_pastefloat0.00.0-1.0Copiar-colar (segment)
ParâmetroTipoPadrãoIntervaloDescrição
fractionfloat1.00,1-1,0Fração do conjunto de dados a utilizar
freezeintnulo0-100Número de camadas a congelar
single_clsbooleanoFalso-Trate todas as classes como uma única classe
rectbooleanoFalso-Treino retangular
multi_scalefloat0.00.0-1.0Gama de treino multiescala
valbooleanoVerdadeiro-Executar validação durante o treino
resumebooleanoFalso-Retomar o treino a partir do ponto de verificação
ValorDescrição
autoSeleção automática (padrão)
SGDDescida do Gradiente Estocástico
MuSGDSGD Muon SGD
AdamOtimizador Adam
AdamWAdam com decaimento de peso
NAdamOtimizador NAdam
RAdamOtimizador RAdam
RMSPropOtimizador RMSProp
AdamaxOtimizador Adamax
ParâmetroTipoPadrãoIntervaloDescrição
boxfloat7.51-50Peso da perda da caixa
clsfloat0.50,2-4Classificação perda de peso
dflfloat1.50,4-6Perda focal de distribuição
posefloat12.01-50Pose perda de peso (apenas pose)
kobjfloat1.00,5-10Objetividade do ponto-chave (pose)
label_smoothingfloat0.00,0-0,1Fator de suavização da etiqueta

Parâmetros Específicos da Tarefa

Alguns parâmetros aplicam-se apenas a tarefas específicas:

  • Apenas tarefas de deteção (detect, segment, pose, OBB — não classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Apenas segmento: copy_paste
  • Apenas pose: pose (peso da perda), kobj (objectness de keypoint)


📅 Criado há 1 mês ✏️ Atualizado há 5 dias
glenn-jochersergiuwaxmannLaughing-q

Comentários