Addestramento su Cloud
Ultralytics Cloud Training offre una formazione con un solo clic sulle GPU cloud, rendendo accessibile l'addestramento dei modelli senza configurazioni complesse. Addestra YOLO con streaming di metriche in tempo reale e salvataggio automatico dei checkpoint.
Guarda: Formazione sul cloud con Ultralytics
Treno da UI
Avvia la formazione sul cloud direttamente dalla piattaforma:
- Vai al tuo progetto
- Clicca sul modello del treno
- Configurare i parametri di allenamento
- Clicca su Inizia l'allenamento
Passaggio 1: selezionare il set di dati
Scegli un set di dati dai tuoi upload:
| Opzione | Descrizione |
|---|---|
| I tuoi set di dati | Set di dati che hai caricato |
| Set di dati pubblici | Set di dati condivisi da Explore |
Passaggio 2: configurare il modello
Selezionare il modello base e i parametri:
| Parametro | Descrizione | Predefinito |
|---|---|---|
| Modello | Architettura di base (YOLO11n, s, m, l, x) | YOLO11n |
| Epoche | Numero di iterazioni di addestramento | 100 |
| Dimensione dell'immagine | Risoluzione di ingresso | 640 |
| Dimensione Batch | Campioni per iterazione | Auto |
Passaggio 3: selezionare GPU
Scegli le tue risorse di calcolo:
| GPU | VRAM | Velocità | Costo/ora |
|---|---|---|---|
| RTX 6000 Pro | 96 GB | Molto veloce | Gratuito |
| M4 Pro (Mac) | 64 GB | Veloce | Gratuito |
| RTX 3090 | 24 GB | Buono | $0.44 |
| RTX 4090 | 24 GB | Veloce | $0.74 |
| L40S | 48 GB | Veloce | $1.14 |
| A100 40 GB | 40 GB | Molto veloce | $1.29 |
| A100 80 GB | 80 GB | Molto veloce | $1.99 |
| H100 80 GB | 80 GB | Il più veloce | $3.99 |
GPU
- RTX 6000 Pro (gratuito): eccellente per la maggior parte delle attività di formazione Ultralytics
- M4 Pro (gratuito): opzione Apple Silicon per carichi di lavoro compatibili
- RTX 4090: il miglior rapporto qualità-prezzo per la formazione cloud a pagamento
- A100 80 GB: necessario per lotti di grandi dimensioni o modelli di grandi dimensioni
- H100: Massime prestazioni per allenamenti in cui il tempo è un fattore determinante
Livello di formazione gratuito
Le GPU RTX 6000 Pro Ada (96 GB di VRAM) e M4 Pro sono disponibili gratuitamente e funzionano Ultralytics . Sono ideali per iniziare e per lavori di formazione regolari.
Fase 4: Inizia l'allenamento
Clicca su Avvia formazione per avviare il tuo lavoro. La piattaforma:
- Provisioning di GPU
- Scarica il tuo set di dati
- Inizia l'allenamento
- Metriche dei flussi in tempo reale
Crediti gratuiti
I nuovi account ricevono 5 $ di credito, sufficienti per diverse sessioni di formazione su RTX 4090. Controlla il tuo saldo in Impostazioni > Fatturazione.
Formazione per monitor
Visualizza i progressi dell'allenamento in tempo reale:
Metriche in tempo reale
| Metrica | Descrizione |
|---|---|
| Perdita | Perdita di addestramento e convalida |
| mAP | Precisione Media Aritmetica Media |
| Precisione | Previsioni positive corrette |
| Recall | Verità di base rilevate |
| GPU | Percentuale GPU |
| Memoria | Utilizzo GPU |
Punti di controllo
I checkpoint vengono salvati automaticamente:
- Ogni epoca: ultimi pesi salvati
- Modello migliore: mAP più alto conservato
- Modello finale: pesi al completamento dell'allenamento
Interrompi e riprendi
Interrompere l'allenamento
Clicca su Interrompi formazione per mettere in pausa il tuo lavoro:
- Il checkpoint corrente è stato salvato
- GPU viene rilasciata
- I crediti non vengono più addebitati
Riprendi l'allenamento
Continua dal tuo ultimo punto di controllo:
- Passa al modello
- Clicca su Riprendi formazione
- Conferma la continuazione
Limiti del curriculum
È possibile riprendere solo l'addestramento che è stato esplicitamente interrotto. I lavori di addestramento non riusciti potrebbero dover essere riavviati da zero.
Formazione a distanza
Esegui la formazione sul tuo hardware mentre trasmetti le metriche alla piattaforma.
Requisiti relativi alla versione del pacchetto
L'integrazione con la piattaforma richiede ultralytics>= 8.4.0. Le versioni precedenti NON funzionano con la piattaforma.
pip install "ultralytics>=8.4.0"
Configurazione chiave API
- Vai su Impostazioni > Chiavi API
- Creare una nuova chiave con ambito di formazione
- Imposta la variabile di ambiente:
export ULTRALYTICS_API_KEY="your_api_key"
Allenati con lo streaming
Utilizzare il project e name parametri per lo streaming delle metriche:
yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Utilizzo dei set di dati della piattaforma
Addestrare con set di dati memorizzati sulla piattaforma:
yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100
Il ul:// Il formato URI scarica e configura automaticamente il tuo set di dati.
Fatturazione
I costi di formazione si basano GPU :
Calcolo dei costi
Total Cost = GPU Rate × Training Time (hours)
| Esempio | GPU | Tempo | Costo |
|---|---|---|---|
| Piccolo lavoro | RTX 4090 | 1 ora | $0.74 |
| Lavoro medio | A100 40 GB | 4 ore | $5.16 |
| Lavoro di grandi dimensioni | H100 | 8 ore | $31.92 |
Metodi di pagamento
| Metodo | Descrizione |
|---|---|
| Saldo del conto | Crediti precaricati |
| Pagamento per lavoro | Addebito al completamento del lavoro |
Saldo minimo
Per iniziare l'allenamento basato sull'epoca è richiesto un saldo minimo di 5,00 $.
Visualizza i costi della formazione
Dopo la formazione, visualizza i costi dettagliati nella scheda Fatturazione:
- Ripartizione dei costi per epoca
- GPU totale GPU
- Scarica il rapporto sui costi
Consigli per l'allenamento
Scegli la taglia giusta
| Modello | Parametri | Ideale per |
|---|---|---|
| YOLO11n | 2.6M | Dispositivi edge in tempo reale |
| YOLO11s | 9.4M | Velocità/precisione bilanciate |
| YOLO11m | 20.1M | Maggiore precisione |
| YOLO11l | 25.3M | Precisione di produzione |
| YOLO11x | 56.9M | Massima precisione |
Ottimizza il tempo dedicato alla formazione
- Inizia in piccolo: prova prima con un numero inferiore di epoche
- Utilizza GPU adeguata: abbina GPU dimensioni del modello/batch
- Convalida del set di dati: garantire la qualità prima dell'addestramento
- Monitorare tempestivamente: interrompere se i parametri raggiungono un plateau
Risoluzione dei problemi
| Problema | Soluzione |
|---|---|
| Formazione bloccata allo 0% | Controllare il formato del set di dati, riprovare |
| Memoria insufficiente | Ridurre la dimensione del batch o utilizzare GPU più grande |
| Scarsa precisione | Aumentare le epoche, verificare la qualità dei dati |
| Allenamento lento | Considera GPU più veloce |
FAQ
Quanto tempo richiede la formazione?
Il tempo di formazione dipende da:
- Dimensione del set di dati
- Dimensioni del modello
- Numero di epoche
- GPU
Tempi tipici (1000 immagini, 100 epoche):
| Modello | RTX 4090 | A100 |
|---|---|---|
| YOLO11n | 30 min | 20 min |
| YOLO11m | 60 min | 40 min |
| YOLO11x | 120 min | 80 min |
Posso allenarmi durante la notte?
Sì, la formazione continua fino al completamento. Riceverai una notifica al termine della formazione. Assicurati che il tuo account abbia un saldo sufficiente per la formazione basata sull'epoca.
Cosa succede se esaurisco i crediti?
L'allenamento si interrompe alla fine dell'epoca corrente. Il tuo checkpoint viene salvato e puoi riprendere dopo aver aggiunto crediti.
Posso utilizzare argomenti di formazione personalizzati?
Sì, gli utenti esperti possono specificare argomenti aggiuntivi nella configurazione dell'addestramento.
Riferimento ai parametri di allenamento
Parametri fondamentali
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Numero di epoche di addestramento |
batch | int | 16 | -1 = automatico | Dimensione batch (-1 per automatico) |
imgsz | int | 640 | 32+ | Dimensioni immagine in ingresso |
patience | int | 100 | 0+ | Pazienza nell'interrompere anticipatamente |
workers | int | 8 | 0+ | Operai addetti al caricamento dei dati |
cache | bool | Falso | - | Immagini cache (RAM/disco) |
Parametri del tasso di apprendimento
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
lr0 | galleggiare | 0.01 | 0,0-1,0 | Tasso di apprendimento iniziale |
lrf | galleggiare | 0.01 | 0,0-1,0 | Fattore LR finale |
momentum | galleggiare | 0.937 | 0,0-1,0 | SGD |
weight_decay | galleggiare | 0.0005 | 0,0-1,0 | Regolarizzazione L2 |
warmup_epochs | galleggiare | 3.0 | 0+ | Epoche di Warmup |
cos_lr | bool | Falso | - | Scheduler Cosine LR |
Parametri di aumento
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
hsv_h | galleggiare | 0.015 | 0,0-1,0 | Aumento della tonalità HSV |
hsv_s | galleggiare | 0.7 | 0,0-1,0 | Saturazione HSV |
hsv_v | galleggiare | 0.4 | 0,0-1,0 | Valore HSV |
degrees | galleggiare | 0.0 | - | Gradi di rotazione |
translate | galleggiare | 0.1 | 0,0-1,0 | Frazione di traduzione |
scale | galleggiare | 0.5 | 0,0-1,0 | Fattore di scala |
fliplr | galleggiare | 0.5 | 0,0-1,0 | Prova di ribaltamento orizzontale |
flipud | galleggiare | 0.0 | 0,0-1,0 | Sonda a ribaltamento verticale |
mosaic | galleggiare | 1.0 | 0,0-1,0 | Aumento del mosaico |
mixup | galleggiare | 0.0 | 0,0-1,0 | Aumento del mixup |
copy_paste | galleggiare | 0.0 | 0,0-1,0 | Copia-incolla (segment) |
Selezione dell'ottimizzatore
| Valore | Descrizione |
|---|---|
auto | Selezione automatica (impostazione predefinita) |
SGD | Discesa stocastica del gradiente |
Adam | Ottimizzatore Adam |
AdamW | Adam decadimento del peso |
Parametri specifici dell'attività
Alcuni parametri si applicano solo a compiti specifici:
- Segmentazione:
overlap_mask,mask_ratio,copy_paste - Posa:
pose(peso perso),kobj(oggettività dei punti chiave) - Classificazione:
dropout,erasing,auto_augment