Treinamento de Modelos
Ultralytics Platform oferece ferramentas abrangentes para o treinamento de modelos YOLO, desde a organização de experimentos até a execução de trabalhos de treinamento na nuvem com transmissão de métricas em tempo real.
Visão geral
A seção de Treinamento ajuda você a:
- Organize os modelos em projetos para facilitar a gestão
- Treinar em GPUs na nuvem com um único clique
- Monitorar métricas em tempo real durante o treinamento
- Comparar o desempenho do modelo entre experimentos
- Exporte para mais de 17 formatos de implementação (consulte os formatos suportados)

Fluxo de Trabalho
graph LR
A[📁 Project] --> B[⚙️ Configure]
B --> C[🚀 Train]
C --> D[📈 Monitor]
D --> E[📦 Export]
style A fill:#4CAF50,color:#fff
style B fill:#2196F3,color:#fff
style C fill:#FF9800,color:#fff
style D fill:#9C27B0,color:#fff
style E fill:#00BCD4,color:#fff
| Etapa | Descrição |
|---|---|
| Projeto | Criar um espaço de trabalho para organizar modelos relacionados |
| Configurar | Selecione o conjunto de dados, o modelo base e os parâmetros de treino |
| Treinar | Executar em GPUs na nuvem ou no seu hardware local |
| Monitorar | Visualizar curvas de perda e métricas em tempo real |
| Exportar | Converta para mais de 17 formatos de implementação (detalhes) |
Opções de Treinamento
Ultralytics Platform suporta múltiplas abordagens de treinamento:
| Método | Descrição | Ideal Para |
|---|---|---|
| Treinamento na Nuvem | Treine em GPUs Ultralytics | Sem GPU local, escalabilidade |
| Formação local | Treine localmente, transmita métricas para a plataforma | Hardware existente, privacidade |
| Treinamento no Colab | Use Google com integração de plataforma | Acesso gratuito à GPU |
Opções de GPU
GPUs disponíveis para formação em nuvem na Ultralytics :
| GPU | VRAM | Custo/Hora | Ideal Para |
|---|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 | Pequenos conjuntos de dados, testes |
| RTX A4500 | 20 GB | $0.24 | Conjuntos de dados pequenos e médios |
| RTX A5000 | 24 GB | $0.26 | Conjuntos de dados médios |
| RTX 4000 Ada | 20 GB | $0.38 | Conjuntos de dados médios |
| L4 | 24 GB | $0.39 | Inferência otimizada |
| A40 | 48 GB | $0.40 | Lotes maiores |
| RTX 3090 | 24 GB | $0.46 | Excelente relação preço/desempenho |
| RTX A6000 | 48 GB | $0.49 | Modelos grandes |
| RTX 4090 | 24 GB | $0.59 | Melhor relação preço/desempenho |
| RTX 6000 Ada | 48 GB | $0.77 | Treinamento em grandes lotes |
| L40S | 48 GB | $0.86 | Treinamento em grandes lotes |
| RTX 5090 | 32 GB | $0.89 | Última geração |
| L40 | 48 GB | $0.99 | Modelos grandes |
| A100 PCIe | 80 GB | $1.39 | Formação em produção |
| A100 SXM | 80 GB | $1.49 | Formação em produção |
| RTX PRO 6000 | 96 GB | $1.89 | Padrão recomendado |
| H100 PCIe | 80 GB | $2.39 | Treino de alto desempenho |
| H100 SXM | 80 GB | $2.69 | Treino mais rápido |
| H100 NVL | 94 GB | $3.07 | Desempenho máximo |
| H200 NVL | 143 GB | $3.39 | Memória máxima |
| H200 SXM | 141 GB | $3.59 | Desempenho máximo |
| B200 | 180 GB | $4.99 | Modelos maiores |
Créditos de inscrição
As novas contas recebem créditos de inscrição para formação. Consulte Faturação para obter mais detalhes.
Métricas em Tempo Real
Durante o treino, visualize métricas em tempo real em três subabas:
graph LR
A[Charts] --> B[Loss Curves]
A --> C[Performance Metrics]
D[Console] --> E[Live Logs]
D --> F[Error Detection]
G[System] --> H[GPU Utilization]
G --> I[Memory & Temp]
style A fill:#2196F3,color:#fff
style D fill:#FF9800,color:#fff
style G fill:#9C27B0,color:#fff
| Subguia | Métricas |
|---|---|
| Gráficos | Perda de caixa/classe/DFL, mAP50, mAP50, precisão, recuperação |
| Consola | Registos de treino em tempo real com cores ANSI e deteção de erros |
| Sistema | GPU , memória, temperatura, CPU, disco |
Pontos de verificação automáticos
A Plataforma guarda automaticamente pontos de verificação em cada época. O melhor modelo ( mAP mais alto) e o modelo final são sempre preservados.
Início Rápido
Comece o treinamento em nuvem em menos de um minuto:
- Crie um projeto na barra lateral
- Clique em Novo Modelo
- Selecione um modelo, conjunto de dados e GPU
- Clique em Iniciar Treinamento
export ULTRALYTICS_API_KEY="your_api_key"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset \
epochs=100 project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
Links Rápidos
- Projetos: Organize seus modelos e experimentos
- Modelos: Gerenciar checkpoints treinados
- Treinamento na Nuvem: Treine em GPUs na nuvem
FAQ
Quanto tempo leva o treinamento?
O tempo de treinamento depende de:
- Tamanho do dataset (número de imagens)
- Tamanho do modelo (n, s, m, l, x)
- Número de épocas
- Tipo de GPU selecionado
Um treino típico com 1000 imagens, YOLO26n, 100 épocas no RTX PRO 6000 leva cerca de 2 a 3 horas. Treinos menores (500 imagens, 50 épocas no RTX 4090) são concluídos em menos de uma hora. Veja exemplos de custos para estimativas detalhadas.
Posso treinar múltiplos modelos simultaneamente?
Sim. Os limites de formação em nuvem simultânea dependem do seu plano: o plano gratuito permite 3, o Pro permite 10 e o Enterprise é ilimitado. Para formação paralela adicional, utilize a formação remota a partir de várias máquinas.
O que acontece se o treinamento falhar?
Se o treinamento falhar:
- Checkpoints são salvos a cada época
- Você pode retomar do último checkpoint
- Os créditos são cobrados apenas pelo tempo de computação concluído
Como escolho a GPU correta?
| Cenário | GPU Recomendada |
|---|---|
| A maioria dos trabalhos de formação | RTX PRO 6000 |
| Datasets grandes ou tamanhos de batch | H100 SXM ou H200 |
| Com foco no orçamento | RTX 4090 |