Treinamento na Nuvem
Ultralytics Platform Cloud Training oferece treinamento com um clique em GPUs em nuvem, tornando o treinamento de modelos acessível sem configurações complexas. Treine modelos YOLO com transmissão de métricas em tempo real e salvamento automático de checkpoints.
graph LR
A[Configure] --> B[Start Training]
B --> C[Provision GPU]
C --> D[Download Dataset]
D --> E[Train]
E --> F[Stream Metrics]
F --> G[Save Checkpoints]
G --> H[Complete]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style E fill:#9C27B0,color:#fff
style H fill:#4CAF50,color:#fff
Diálogo de formação
Comece o treino a partir da interface do utilizador da plataforma clicando em Novo modelo em qualquer página do projeto (ou Treinar a partir de uma página de conjunto de dados). A caixa de diálogo de treino tem duas guias: Treino na nuvem e Treino local.

Passo 1: Selecione o modelo base
Escolha entre os modelos oficiais do YOLO26 ou os seus próprios modelos treinados:
| Categoria | Descrição |
|---|---|
| Oficial | Todos os 25 modelos YOLO26 (5 tamanhos x 5 tarefas) |
| Os seus modelos | Os seus modelos concluídos para ajuste fino |
Os modelos oficiais são organizados por tipo de tarefa (Detectar, Segmentar, Posicionar, OBB, Classificar) com tamanhos que variam de nano a extragrande.
Passo 2: Selecione o conjunto de dados
Escolha um conjunto de dados para treinar (consulte Conjuntos de dados):
| Opção | Descrição |
|---|---|
| Oficial | Conjuntos de dados selecionados pela Ultralytics |
| Seus Conjuntos de Dados | Conjuntos de dados que você carregou |
Requisitos do conjunto de dados
Os conjuntos de dados devem estar em ready estado com pelo menos 1 imagem na divisão de treino, 1 imagem na divisão de validação ou teste e pelo menos 1 imagem rotulada.
Incompatibilidade de tarefas
Um aviso de incompatibilidade de tarefas é exibido se a tarefa do modelo (por exemplo, detect) não corresponder à tarefa do conjunto de dados (por exemplo, segment). O treinamento falhará se você prosseguir com tarefas incompatíveis. Certifique-se de que o modelo e o conjunto de dados usem o mesmo tipo de tarefa, conforme descrito nos guias de tarefas.
Passo 3: Configurar os parâmetros
Definir os parâmetros principais do treino:
| Parâmetro | Descrição | Padrão |
|---|---|---|
| Épocas | Número de iterações de treinamento | 100 |
| Tamanho do Lote (Batch Size) | Amostras por iteração | 16 |
| Tamanho da Imagem | Resolução de entrada (menu suspenso 320/416/512/640/1280 ou 32-4096 no editor YAML) | 640 |
| Nome da execução | Nome opcional para a corrida de treino | automóvel |
Passo 4: Configurações avançadas (opcional)
Expanda Configurações avançadas para aceder ao editor de parâmetros completo baseado em YAML com mais de 40 parâmetros de treino organizados por grupo (consulte a referência de configuração):
| Grupo | Parâmetros |
|---|---|
| Taxa de Aprendizado | lr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr |
| Otimizador | SGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax |
| Peso perdido | caixa, cls, dfl, pose, kobj, suavização de rótulo |
| Aumento da cor | hsv_h, hsv_s, hsv_v |
| Aumento geométrico. | graus, traduzir, escalar, cisalhar, perspectiva |
| Flip & Mix Augment. | flipud, fliplr, mosaico, mistura, copiar_colar |
| Controlo da Formação | paciência, semente, determinístico, amp, cos_lr, close_mosaic, save_period |
| Conjunto de dados | fração, congelar, single_cls, retângulo, multi_escala, retomar |
Os parâmetros são sensíveis à tarefa (por exemplo, copy_paste apenas mostra para segment , pose/kobj apenas para tarefas de pose). A Modificado O ícone aparece quando os valores diferem dos padrões, e você pode redefinir todos para os padrões com o botão Redefinir.
Exemplo: Aumento de ajuste para pequenos conjuntos de dados
For small datasets (<1000 images), increase augmentation to reduce overfitting:
mosaic: 1.0 # Keep mosaic on
mixup: 0.3 # Add mixup blending
copy_paste: 0.3 # Add copy-paste (segment only)
fliplr: 0.5 # Horizontal flip
degrees: 10.0 # Slight rotation
scale: 0.9 # Aggressive scaling
Passo 5: Selecione GPU guia Nuvem)
Escolha GPU sua GPU Ultralytics :

| GPU | VRAM | Custo/Hora |
|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 |
| RTX A4500 | 20 GB | $0.24 |
| RTX A5000 | 24 GB | $0.26 |
| RTX 4000 Ada | 20 GB | $0.38 |
| L4 | 24 GB | $0.39 |
| A40 | 48 GB | $0.40 |
| RTX 3090 | 24 GB | $0.46 |
| RTX A6000 | 48 GB | $0.49 |
| RTX 4090 | 24 GB | $0.59 |
| RTX 6000 Ada | 48 GB | $0.77 |
| L40S | 48 GB | $0.86 |
| RTX 5090 | 32 GB | $0.89 |
| L40 | 48 GB | $0.99 |
| A100 PCIe | 80 GB | $1.39 |
| A100 SXM | 80 GB | $1.49 |
| RTX PRO 6000 | 96 GB | $1.89 |
| H100 PCIe | 80 GB | $2.39 |
| H100 SXM | 80 GB | $2.69 |
| H100 NVL | 94 GB | $3.07 |
| H200 NVL | 143 GB | $3.39 |
| H200 SXM | 141 GB | $3.59 |
| B200 | 180 GB | $4.99 |
Seleção de GPU
- RTX PRO 6000: 96 GB da geração Blackwell, padrão recomendado para a maioria dos trabalhos
- A100 SXM: Necessário para lotes grandes ou modelos grandes
- H100/H200: Desempenho máximo para treinos com restrições de tempo
- B200: Arquitetura NVIDIA para cargas de trabalho de ponta
A caixa de diálogo mostra o seu saldo atual e um botão Recarregar. O custo e a duração estimados são calculados com base na sua configuração (tamanho do modelo, imagens do conjunto de dados, épocas, GPU ).
Passo 6: Comece o treino
Clique em Iniciar Treinamento para iniciar seu trabalho. A Plataforma:
- Provisiona uma instância de GPU
- Baixa seu conjunto de dados
- Inicia o treinamento
- Transmite métricas em tempo real
Ciclo de vida da formação profissional
Os trabalhos de formação passam pelos seguintes estados:
| Status | Descrição |
|---|---|
| Pendente | Trabalho enviado, aguardando GPU da GPU |
| Começando | GPU , a descarregar conjunto de dados e modelo |
| Corrida | Treinamento em andamento, métricas transmitidas em tempo real |
| Concluído | Treinamento concluído com sucesso |
| Falha | A formação falhou (consulte os registos da consola para obter detalhes) |
| Cancelado | O treinamento foi cancelado pelo utilizador. |
Créditos Gratuitos
Novas contas recebem créditos de inscrição — US$ 5 para e-mails pessoais e US$ 25 para e-mails corporativos. Verifique o seu saldo em Configurações > Faturamento.

Monitorar Treinamento
Veja o progresso do treino em tempo real no separador Treinar da página do modelo:
Subguia Gráficos

| Métrica | Descrição |
|---|---|
| Perda | Perda de treinamento e validação |
| mAP | Precisão Média Média |
| Precisão | Previsões positivas corretas |
| Recall | Verdades fundamentais detectadas |
Subguia Console
Saída do console ao vivo com suporte a cores ANSI, barras de progresso e detecção de erros.
Subguia Sistema
GPU em tempo real, memória, temperatura, CPU e utilização do disco.
Pontos de Controlo
Os checkpoints são salvos automaticamente:
- A cada época: Pesos mais recentes salvos
- Melhor modelo: Checkpoint com o maior mAP preservado
- Modelo final: Pesos ao término do treinamento
Cancelar Treinamento
Clique em Cancelar Treinamento na página do modelo para interromper um trabalho em execução:
- A instância de computação foi encerrada
- Os créditos param de ser cobrados
- Os pontos de verificação guardados até esse momento são preservados
Treinamento Remoto
graph LR
A[Local GPU] --> B[Train]
B --> C[ultralytics Package]
C --> D[Stream Metrics]
D --> E[Platform Dashboard]
style A fill:#FF9800,color:#fff
style C fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
Treine no seu próprio hardware enquanto transmite métricas para a plataforma.
Requisito de Versão do Pacote
A integração da plataforma requer ultralytics>= 8.4.14. Versões inferiores NÃO funcionarão com a plataforma.
pip install -U ultralytics
Configurar Chave API
- Ir para
Settings > Profile(Secção Chaves API) - Crie uma nova chave (ou a plataforma cria uma automaticamente quando abre o separador Formação local)
- Defina a variável de ambiente:
export ULTRALYTICS_API_KEY="your_api_key"
Treinar com Streaming
Use o comando project e name parâmetros para transmitir métricas:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
A guia Treinamento local na caixa de diálogo de treinamento mostra um comando pré-configurado com a sua chave API, parâmetros selecionados e argumentos avançados incluídos.
Utilizar Conjuntos de Dados da Plataforma
Treine com conjuntos de dados armazenados na plataforma usando o ul:// formato URI:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
O ul:// O formato URI descarrega e configura automaticamente o seu conjunto de dados. O modelo é automaticamente ligado ao conjunto de dados na plataforma (ver Utilizar Conjuntos de Dados da Plataforma).
Faturamento
Os custos de treinamento são baseados no uso da GPU:
Estimativa de custos
Antes do início do treinamento, a plataforma estima o custo total da seguinte forma:
- Estimativa de segundos por época a partir do tamanho do conjunto de dados, complexidade do modelo, tamanho da imagem, tamanho do lote e GPU
- Calcular o tempo total de treino multiplicando os segundos por época pelo número de épocas e, em seguida, adicionando a sobrecarga de inicialização
- Calcular o custo estimado a partir do total de horas de formação multiplicado pela tarifa horária GPU
Fatores que afetam o custo:
| Fator | Impacto |
|---|---|
| Tamanho do conjunto de dados | Mais imagens = maior tempo de treino (linha de base: ~2,8 s de computação por 1000 imagens no RTX 4090) |
| Tamanho do Modelo | Modelos maiores (m, l, x) treinam mais lentamente do que (n, s) |
| Número de épocas | Multiplicador direto no tempo de formação |
| Tamanho da Imagem | Imagens maiores aumentam a computação: 320 px = 0,25x, 640 px = 1,0x (linha de base), 1280 px = 4,0x |
| Tamanho do Lote (Batch Size) | Lotes maiores são mais eficientes (lote 32 = ~0,85x tempo, lote 8 = ~1,2x tempo vs. lote 16 de referência) |
| GPU | GPUs mais rápidas reduzem o tempo de treinamento (por exemplo, H100 SXM = ~3,4x mais rápido que RTX 4090) |
| Despesas gerais de arranque | Até 5 minutos para inicialização de instâncias, download de dados e aquecimento (varia de acordo com o tamanho do conjunto de dados) |
Exemplos de custos
Estimativas
As estimativas de custo são aproximadas e dependem de muitos fatores. A caixa de diálogo de formação mostra uma estimativa em tempo real antes de iniciar a formação.
| Cenário | GPU | Custo estimado |
|---|---|---|
| 500 imagens, YOLO26n, 50 épocas | RTX 4090 | ~$0,50 |
| 1000 imagens, YOLO26n, 100 épocas | RTX PRO 6000 | ~$5 |
| 5000 imagens, YOLO26s, 100 épocas | H100 SXM | ~$23 |
Fluxo de faturação
graph LR
A[Estimate Cost] --> B[Balance Check]
B --> C[Train]
C --> D[Charge Actual Runtime]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style C fill:#9C27B0,color:#fff
style D fill:#4CAF50,color:#fff
Fluxo de faturamento do treinamento em nuvem:
- Estimativa: Custo calculado antes do início da formação
- Verificação do saldo: os créditos disponíveis são verificados antes do lançamento
- Treinar: O trabalho é executado na computação selecionada
- Custo: O custo final é baseado no tempo de execução real
Proteção ao Consumidor
A faturação acompanha a utilização real da computação, incluindo execuções parciais que são canceladas.
Métodos de Pagamento
| Método | Descrição |
|---|---|
| Saldo da Conta | Créditos pré-carregados |
| Pagamento por Tarefa | Cobrança na conclusão da tarefa |
Saldo Mínimo
O início do treinamento requer um saldo disponível positivo e créditos suficientes para cobrir o custo estimado do trabalho.
Ver Custos de Treino
Após o treinamento, visualize os custos detalhados na aba Faturamento:
- Detalhamento de custo por época
- Tempo total de GPU
- Baixar relatório de custos

Dicas de Treino
Escolher o Tamanho Certo do Modelo
| Modelo | Parâmetros | Ideal Para |
|---|---|---|
| YOLO26n | 2.4M | Dispositivos de borda em tempo real |
| YOLO26s | 9.5M | Equilíbrio entre velocidade e precisão |
| YOLO26m | 20.4M | Maior precisão |
| YOLO26l | 24.8M | Precisão para produção |
| YOLO26x | 55.7M | Precisão máxima |
Otimizar Tempo de Treino
Estratégias de redução de custos
- Comece aos poucos: teste com 10 a 20 épocas em uma GPU econômica GPU verificar o seu conjunto de dados e a configuração do trabalho.
- Use GPU adequada: a RTX PRO 6000 lida bem com a maioria das cargas de trabalho
- Validar o conjunto de dados: corrigir problemas de rotulagem antes de investir em treinamento
- Monitore antecipadamente: cancele o treinamento se a perda se estabilizar — você só paga pelo tempo de computação utilizado
Resolução de Problemas
| Problema | Solução |
|---|---|
| Treinamento travado em 0% | Verifique o formato do conjunto de dados, tente novamente |
| Memória insuficiente | Reduza o tamanho do lote ou use uma GPU maior |
| Precisão baixa | Aumente as épocas, verifique a qualidade dos dados |
| Treinamento lento | Considere uma GPU mais rápida |
| Erro de incompatibilidade de tarefas | Certifique-se de que as tarefas do modelo e do conjunto de dados correspondam |
FAQ
Quanto tempo leva o treinamento?
O tempo de treinamento depende de:
- Tamanho do dataset
- Tamanho do modelo
- Número de épocas
- GPU selecionada
Tempos típicos (1000 imagens, 100 épocas):
| Modelo | RTX PRO 6000 | A100 |
|---|---|---|
| YOLO26n | 20 min | 20 min |
| YOLO26m | 40 min | 40 min |
| YOLO26x | 80 min | 80 min |
Posso treinar durante a noite?
Sim, o treinamento continua até a conclusão. Você receberá uma notificação quando o treinamento terminar. Certifique-se de que sua conta tenha saldo suficiente para o treinamento baseado em épocas.
O que acontece se eu ficar sem créditos?
O treinamento pausa no final da época atual. Seu checkpoint é salvo, e você pode retomar após adicionar créditos.
Posso usar argumentos de treino personalizados?
Sim, expanda a secção Configurações avançadas na caixa de diálogo de treino para aceder a um editor YAML com mais de 40 parâmetros configuráveis. Os valores não padrão estão incluídos nos comandos de treino na nuvem e locais.
Posso treinar a partir de uma página de conjunto de dados?
Sim, o botão Treinar nas páginas do conjunto de dados abre a caixa de diálogo de treino com o conjunto de dados pré-selecionado e bloqueado. Em seguida, selecione um projeto e um modelo para iniciar o treino.
Referência de Parâmetros de Treinamento
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
epochs | int | 100 | 1-10000 | Número de épocas de treino |
batch | int | 16 | 1-512 | Tamanho do lote (Batch size) |
imgsz | int | 640 | 32-4096 | Tamanho da imagem de entrada |
patience | int | 100 | 1-1000 | Paciência para early stopping |
seed | int | 0 | 0-2147483647 | Semente aleatória para reprodutibilidade |
deterministic | booleano | Verdadeiro | - | Modo de treino determinístico |
amp | booleano | Verdadeiro | - | Precisão mista automática |
close_mosaic | int | 10 | 0-50 | Desativar mosaico nas últimas N épocas |
save_period | int | -1 | -1-100 | Salvar ponto de verificação a cada N épocas |
workers | int | 8 | 0-64 | Workers do dataloader |
cache | selecionar | falso | ram/disco/falso | Imagens em cache |
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
lr0 | float | 0.01 | 0,0001-0,1 | Taxa de aprendizado inicial |
lrf | float | 0.01 | 0,01-1,0 | Fator LR final |
momentum | float | 0.937 | 0,6-0,98 | Momento SGD |
weight_decay | float | 0.0005 | 0,0-0,001 | Regularização L2 |
warmup_epochs | float | 3.0 | 0-5 | Épocas de aquecimento |
warmup_momentum | float | 0.8 | 0,5-0,95 | Impulso de aquecimento |
warmup_bias_lr | float | 0.1 | 0,0-0,2 | Biais de aquecimento LR |
cos_lr | booleano | Falso | - | Scheduler de LR cosseno |
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0,0-0,1 | Aumento de matiz HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturação HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valor HSV |
degrees | float | 0.0 | -45-45 | Graus de rotação |
translate | float | 0.1 | 0.0-1.0 | Fração de translação |
scale | float | 0.5 | 0.0-1.0 | Fator de escala |
shear | float | 0.0 | -10-10 | Graus de cisalhamento |
perspective | float | 0.0 | 0,0-0,001 | Transformação de perspetiva |
fliplr | float | 0.5 | 0.0-1.0 | Probabilidade de inversão horizontal |
flipud | float | 0.0 | 0.0-1.0 | Probabilidade de inversão vertical |
mosaic | float | 1.0 | 0.0-1.0 | Aumento de mosaico |
mixup | float | 0.0 | 0.0-1.0 | Aumento Mixup |
copy_paste | float | 0.0 | 0.0-1.0 | Copiar-colar (segment) |
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
fraction | float | 1.0 | 0,1-1,0 | Fração do conjunto de dados a utilizar |
freeze | int | nulo | 0-100 | Número de camadas a congelar |
single_cls | booleano | Falso | - | Trate todas as classes como uma única classe |
rect | booleano | Falso | - | Treino retangular |
multi_scale | float | 0.0 | 0.0-1.0 | Gama de treino multiescala |
val | booleano | Verdadeiro | - | Executar validação durante o treino |
resume | booleano | Falso | - | Retomar o treino a partir do ponto de verificação |
| Valor | Descrição |
|---|---|
auto | Seleção automática (padrão) |
SGD | Descida do Gradiente Estocástico |
MuSGD | SGD Muon SGD |
Adam | Otimizador Adam |
AdamW | Adam com decaimento de peso |
NAdam | Otimizador NAdam |
RAdam | Otimizador RAdam |
RMSProp | Otimizador RMSProp |
Adamax | Otimizador Adamax |
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
box | float | 7.5 | 1-50 | Peso da perda da caixa |
cls | float | 0.5 | 0,2-4 | Classificação perda de peso |
dfl | float | 1.5 | 0,4-6 | Perda focal de distribuição |
pose | float | 12.0 | 1-50 | Pose perda de peso (apenas pose) |
kobj | float | 1.0 | 0,5-10 | Objetividade do ponto-chave (pose) |
label_smoothing | float | 0.0 | 0,0-0,1 | Fator de suavização da etiqueta |
Parâmetros Específicos da Tarefa
Alguns parâmetros aplicam-se apenas a tarefas específicas:
- Apenas tarefas de deteção (detect, segment, pose, OBB — não classify):
box,dfl,degrees,translate,shear,perspective,mosaic,mixup,close_mosaic - Apenas segmento:
copy_paste - Apenas pose:
pose(peso da perda),kobj(objectness de keypoint)