Treinamento na Nuvem
Ultralytics Cloud Training oferece formação com um único clique em GPUs na nuvem, tornando a formação de modelos acessível sem configurações complexas. Treine YOLO com streaming de métricas em tempo real e gravação automática de pontos de verificação.
Assista: Formação em nuvem com Ultralytics
Treinar a partir da interface do utilizador
Comece o treinamento em nuvem diretamente da plataforma:
- Navegue até ao seu projeto
- Clique no modelo do comboio
- Configurar os parâmetros de treino
- Clique em Iniciar Treino
Passo 1: Selecione o conjunto de dados
Escolha um conjunto de dados dos seus uploads:
| Opção | Descrição |
|---|---|
| Os seus conjuntos de dados | Conjuntos de dados que carregou |
| Conjuntos de dados públicos | Conjuntos de dados partilhados do Explore |
Passo 2: Configurar o modelo
Selecione o modelo base e os parâmetros:
| Parâmetro | Descrição | Padrão |
|---|---|---|
| Modelo | Arquitetura base (YOLO11n, s, m, l, x) | YOLO11n |
| Épocas | Número de iterações de treino | 100 |
| Tamanho da Imagem | Resolução de entrada | 640 |
| Tamanho do Lote (Batch Size) | Amostras por iteração | Automóvel |
Passo 3: Selecione GPU
Escolha os seus recursos de computação:
| GPU | VRAM | Velocidade | Custo/hora |
|---|---|---|---|
| RTX 6000 Pro | 96 GB | Muito rápido | Gratuito |
| M4 Pro (Mac) | 64 GB | Rápido | Gratuito |
| RTX 3090 | 24 GB | Bom | $0.44 |
| RTX 4090 | 24 GB | Rápido | $0.74 |
| L40S | 48 GB | Rápido | $1.14 |
| A100 40 GB | 40 GB | Muito rápido | $1.29 |
| A100 80 GB | 80 GB | Muito rápido | $1.99 |
| H100 80 GB | 80 GB | Mais rápido | $3.99 |
GPU
- RTX 6000 Pro (gratuito): excelente para a maioria dos trabalhos de formação na Ultralytics
- M4 Pro (gratuito): opção Apple Silicon para cargas de trabalho compatíveis
- RTX 4090: Melhor custo-benefício para treinamento pago em nuvem
- A100 80 GB: necessário para lotes grandes ou modelos grandes
- H100: Desempenho máximo para treinos com tempo limitado
Nível de formação gratuita
As GPUs RTX 6000 Pro Ada (96 GB de VRAM) e M4 Pro estão disponíveis gratuitamente, funcionando na Ultralytics . Elas são ideais para começar e para tarefas regulares de treinamento.
Passo 4: Comece o treino
Clique em Iniciar Treinamento para iniciar o seu trabalho. A Plataforma:
- Provisões de uma GPU
- Faz o download do seu conjunto de dados
- Começa o treino
- Transmite métricas em tempo real
Créditos gratuitos
As novas contas recebem US$ 5 em créditos, o suficiente para várias sessões de treino no RTX 4090. Verifique o seu saldo em Configurações > Faturamento.
Formação em monitorização
Veja o progresso do treino em tempo real:
Métricas em tempo real
| Métrica | Descrição |
|---|---|
| Perda | Perda de treino e validação |
| mAP | Precisão Média Média |
| Precisão | Previsões positivas corretas |
| Recall | Verdades fundamentais detetadas |
| GPU | Porcentagem GPU |
| Memória | Utilização GPU |
Pontos de controlo
Os pontos de verificação são guardados automaticamente:
- Cada época: Últimos pesos guardados
- Melhor modelo: mAP mais alto preservado
- Modelo final: Pesos ao concluir o treino
Pausar e retomar
Parar o treino
Clique em Parar Treinamento para pausar o seu trabalho:
- O ponto de verificação atual é guardado
- GPU é libertada
- Os créditos deixam de ser cobrados
Retomar a formação
Continue a partir do seu último ponto de verificação:
- Navegue até o modelo
- Clique em Retomar Treinamento
- Confirmar continuação
Limitações do currículo
Só é possível retomar o treino que foi explicitamente interrompido. Os trabalhos de treino com falha podem precisar de ser reiniciados do zero.
Formação à distância
Treine no seu próprio hardware enquanto transmite métricas para a plataforma.
Requisito de versão do pacote
A integração da plataforma requer ultralytics>= 8.4.0. Versões inferiores NÃO funcionarão com a plataforma.
pip install "ultralytics>=8.4.0"
Configurar chave API
- Vá para Definições > Chaves API
- Criar uma nova chave com âmbito de formação
- Defina a variável de ambiente:
export ULTRALYTICS_API_KEY="your_api_key"
Treine com streaming
Use o comando project e name parâmetros para transmitir métricas:
yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Utilização de conjuntos de dados da plataforma
Treine com conjuntos de dados armazenados na Plataforma:
yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100
O ul:// O formato URI descarrega e configura automaticamente o seu conjunto de dados.
Faturamento
Os custos de formação são baseados na GPU :
Cálculo de custos
Total Cost = GPU Rate × Training Time (hours)
| Exemplo | GPU | Tempo | Custo |
|---|---|---|---|
| Pequeno trabalho | RTX 4090 | 1 hora | $0.74 |
| Trabalho médio | A100 40 GB | 4 horas | $5.16 |
| Trabalho grande | H100 | 8 horas | $31.92 |
Formas de pagamento
| Método | Descrição |
|---|---|
| Saldo da conta | Créditos pré-carregados |
| Pagamento por trabalho | Cobrar na conclusão do trabalho |
Saldo mínimo
É necessário um saldo mínimo de US$ 5,00 para iniciar o treinamento baseado em épocas.
Ver custos de formação
Após o treinamento, veja os custos detalhados na guia Faturamento:
- Discriminação dos custos por época
- GPU total GPU
- Descarregar relatório de custos
Dicas de treino
Escolha o tamanho certo do modelo
| Modelo | Parâmetros | Ideal para |
|---|---|---|
| YOLO11n | 2.6M | Dispositivos de ponta em tempo real |
| YOLO11s | 9.4M | Velocidade/precisão equilibradas |
| YOLO11m | 20.1M | Maior precisão |
| YOLO11l | 25.3M | Precisão da produção |
| YOLO11x | 56.9M | Precisão máxima |
Otimize o tempo de treino
- Comece aos poucos: teste primeiro com menos épocas
- Use GPU adequada: combine GPU o tamanho do modelo/lote
- Validar o conjunto de dados: garantir a qualidade antes do treino
- Monitorize desde cedo: pare se os indicadores estabilizarem
Resolução de Problemas
| Problema | Solução |
|---|---|
| Treinamento preso em 0% | Verifique o formato do conjunto de dados e tente novamente |
| Sem memória | Reduza o tamanho do lote ou utilize GPU maior |
| Precisão insuficiente | Aumente as épocas, verifique a qualidade dos dados |
| Treino lento | Considere GPU mais rápida |
FAQ
Quanto tempo dura a formação?
O tempo de formação depende de:
- Tamanho do conjunto de dados
- Tamanho do modelo
- Número de épocas
- GPU
Tempos típicos (1000 imagens, 100 épocas):
| Modelo | RTX 4090 | A100 |
|---|---|---|
| YOLO11n | 30 min | 20 min |
| YOLO11m | 60 min | 40 min |
| YOLO11x | 120 min | 80 min |
Posso treinar durante a noite?
Sim, o treino continua até ser concluído. Receberá uma notificação quando o treino terminar. Certifique-se de que a sua conta tem saldo suficiente para o treino baseado em épocas.
O que acontece se eu ficar sem créditos?
O treino é interrompido no final do período atual. O seu ponto de verificação é guardado e pode retomar após adicionar créditos.
Posso usar argumentos de formação personalizados?
Sim, utilizadores avançados podem especificar argumentos adicionais na configuração do treino.
Referência dos parâmetros de treino
Parâmetros principais
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Número de épocas de treino |
batch | int | 16 | -1 = automático | Tamanho do lote (-1 para automático) |
imgsz | int | 640 | 32+ | Tamanho da imagem de entrada |
patience | int | 100 | 0+ | Paciência para parar cedo |
workers | int | 8 | 0+ | Trabalhadores do Dataloader |
cache | bool | Falso | - | Imagens em cache (RAM/disco) |
Parâmetros da taxa de aprendizagem
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
lr0 | flutuar | 0.01 | 0,0-1,0 | Taxa de aprendizado inicial |
lrf | flutuar | 0.01 | 0,0-1,0 | Fator LR final |
momentum | flutuar | 0.937 | 0,0-1,0 | SGD |
weight_decay | flutuar | 0.0005 | 0,0-1,0 | Regularização L2 |
warmup_epochs | flutuar | 3.0 | 0+ | Épocas de aquecimento |
cos_lr | bool | Falso | - | Agendador Cosine LR |
Parâmetros de aumento
| Parâmetro | Tipo | Padrão | Intervalo | Descrição |
|---|---|---|---|---|
hsv_h | flutuar | 0.015 | 0,0-1,0 | Aumento da tonalidade HSV |
hsv_s | flutuar | 0.7 | 0,0-1,0 | Saturação do HSV |
hsv_v | flutuar | 0.4 | 0,0-1,0 | Valor HSV |
degrees | flutuar | 0.0 | - | Graus de rotação |
translate | flutuar | 0.1 | 0,0-1,0 | Fração de tradução |
scale | flutuar | 0.5 | 0,0-1,0 | Fator de escala |
fliplr | flutuar | 0.5 | 0,0-1,0 | Sonda de inversão horizontal |
flipud | flutuar | 0.0 | 0,0-1,0 | Sonda de inversão vertical |
mosaic | flutuar | 1.0 | 0,0-1,0 | Aumento do mosaico |
mixup | flutuar | 0.0 | 0,0-1,0 | Aumento da confusão |
copy_paste | flutuar | 0.0 | 0,0-1,0 | Copiar e colar (segment) |
Seleção do otimizador
| Valor | Descrição |
|---|---|
auto | Seleção automática (padrão) |
SGD | Descida do gradiente estocástico |
Adam | Otimizador Adam |
AdamW | Adam decaimento de peso |
Parâmetros específicos da tarefa
Alguns parâmetros aplicam-se apenas a tarefas específicas:
- Segmentar:
overlap_mask,mask_ratio,copy_paste - Pose:
pose(perda de peso),kobj(objetividade do ponto-chave) - Classificar:
dropout,erasing,auto_augment