Addestramento su Cloud
Ultralytics Platform Cloud Training offre l'addestramento con un solo clic su GPU su cloud, rendendo l'addestramento del modello accessibile senza configurazioni complesse. Addestra i modelli YOLO con streaming di metriche in tempo reale e salvataggio automatico dei checkpoint.
Addestra dall'interfaccia utente
Avvia l'addestramento cloud direttamente dalla Piattaforma:
- Naviga al tuo progetto
- Clicca su Addestra Modello
- Configura i parametri di addestramento
- Clicca su Avvia Addestramento
Passaggio 1: Seleziona il Dataset
Scegli un dataset dai tuoi caricamenti:
| Opzione | Descrizione |
|---|---|
| I tuoi Dataset | Dataset che hai caricato |
| Dataset Pubblici | Set di dati pubblici da Explore |
Passaggio 2: Configura il Modello
Seleziona il modello base e i parametri:
| Parametro | Descrizione | Predefinito |
|---|---|---|
| Modello | Architettura di base (YOLO26n, s, m, l, x) | YOLO26n |
| Epoche | Numero di iterazioni di addestramento | 100 |
| Dimensione dell'immagine | Risoluzione di input | 640 |
| Dimensione Batch | Campioni per iterazione | Automatico |
Passaggio 3: Seleziona la GPU
Scegli le tue risorse di calcolo:
| Livello | GPU | VRAM | Prezzo/ora | Ideale per |
|---|---|---|---|---|
| Bilancio | RTX A2000 | 6 GB | $0.12 | Piccoli set di dati, test |
| Bilancio | RTX 3080 | 10 GB | $0.25 | Set di dati medi |
| Bilancio | RTX 3080 Ti | 12 GB | $0.30 | Set di dati medi |
| Bilancio | A30 | 24 GB | $0.44 | Lotti di dimensioni maggiori |
| Mezzo | RTX 4090 | 24 GB | $0.60 | Ottimo rapporto qualità/prezzo |
| Mezzo | A6000 | 48 GB | $0.90 | Modelli di grandi dimensioni |
| Mezzo | L4 | 24 GB | $0.54 | Inferenza ottimizzata |
| Mezzo | L40S | 48 GB | $1.72 | Formazione su grandi lotti |
| Pro | A100 40GB | 40 GB | $2.78 | Formazione alla produzione |
| Pro | A100 80GB | 80 GB | $3.44 | Modelli molto grandi |
| Pro | H100 | 80 GB | $5.38 | Allenamento più veloce |
| Enterprise | H200 | 141 GB | $5.38 | Massime prestazioni |
| Enterprise | B200 | 192 GB | $10.38 | Modelli più grandi |
| Ultralytics | RTX PRO 6000 | 48 GB | $3.68 | Ultralytics |
Selezione GPU
- RTX 4090: il miglior rapporto prezzo/prestazioni per la maggior parte dei lavori a 0,60 $/ora
- A100 80GB: Richiesta per batch size elevati o modelli di grandi dimensioni
- H100/H200: massime prestazioni per allenamenti in cui il tempo è un fattore determinante
- B200: architettura NVIDIA per carichi di lavoro all'avanguardia
Passaggio 4: Avvia l'Addestramento
Clicca su Avvia Addestramento per avviare il tuo lavoro. La piattaforma:
- Effettua il provisioning di un'istanza GPU
- Scarica il tuo dataset
- Inizia l'addestramento
- Trasmette le metriche in tempo reale
Crediti gratuiti
I nuovi account ricevono 5 $ di credito all'iscrizione (25 $ per le e-mail aziendali), sufficienti per diverse sessioni di allenamento. Controlla il tuo saldo in Impostazioni > Fatturazione.
Monitorare l'addestramento
Visualizza l'avanzamento dell'addestramento in tempo reale:
Metriche in tempo reale
| Metrica | Descrizione |
|---|---|
| Perdita | Loss di addestramento e validazione |
| mAP | Precisione Media Aritmetica Media |
| Precisione | Predizioni positive corrette |
| Recall | Ground truth rilevate |
| Utilizzo GPU | Percentuale di utilizzo della GPU |
| Memoria | Utilizzo della memoria GPU |
Checkpoint
I checkpoint vengono salvati automaticamente:
- Ogni epoca: Pesi più recenti salvati
- Miglior modello: Checkpoint con il mAP più alto preservato
- Modello finale: Pesi al completamento dell'addestramento
Interrompi e riprendi
Interrompere l'addestramento
Clicca su Interrompi Addestramento per mettere in pausa il tuo lavoro:
- Il checkpoint corrente viene salvato
- L'istanza GPU viene rilasciata
- I crediti cessano di essere addebitati
Riprendere l'addestramento
Continua dall'ultimo checkpoint:
- Vai al modello
- Fai clic su Riprendi Addestramento
- Conferma la continuazione
Limitazioni alla ripresa
È possibile riprendere solo l'addestramento che è stato esplicitamente interrotto. I processi di addestramento falliti potrebbero dover essere riavviati da zero.
Addestramento remoto
Addestra sul tuo hardware trasmettendo le metriche alla Piattaforma.
Requisiti di versione del pacchetto
L'integrazione della Piattaforma richiede Ultralytics>=8.4.0. Versioni precedenti NON funzioneranno con la Piattaforma.
pip install "ultralytics>=8.4.0"
Configurazione della chiave API
- Vai a Impostazioni > Chiavi API
- Crea una nuova chiave con ambito di addestramento
- Imposta la variabile d'ambiente:
export ULTRALYTICS_API_KEY="your_api_key"
Addestramento con streaming
Utilizzare il project e name parametri per lo streaming delle metriche:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Utilizzo dei dataset della piattaforma
Addestra con dataset archiviati sulla Piattaforma:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100
Il ul:// Il formato URI scarica e configura automaticamente il tuo dataset.
Fatturazione
I costi di addestramento si basano sull'utilizzo della GPU:
Stima dei costi
Prima dell'inizio della formazione, la Piattaforma stima il costo totale sulla base di:
Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate
Fattori che incidono sul costo:
| Fattore | Impatto |
|---|---|
| Dimensione del set di dati | Più immagini = tempo di addestramento più lungo |
| Dimensione del modello | I modelli più grandi (m, l, x) si addestrano più lentamente rispetto a quelli (n, s) |
| Numero di epoche | Moltiplicatore diretto sul tempo di formazione |
| Dimensione dell'immagine | Un imgsz più grande aumenta il calcolo |
| GPU | Le GPU più veloci riducono i tempi di addestramento |
Esempi di costi
| Scenario | GPU | Tempo | Costo |
|---|---|---|---|
| 1000 immagini, YOLO26n, 100 epoche | RTX 4090 | ~1 ora | ~0,60 $ |
| 5000 immagini, YOLO26m, 100 epoche | A100 80GB | circa 4 ore | ~13,76 $ |
| 10.000 immagini, YOLO26x, 200 epoche | H100 | circa 8 ore | ~43,04 $ |
Sistema di sospensione/regolamento
La Piattaforma utilizza un modello di fatturazione a tutela del consumatore:
- Stima: costo calcolato prima dell'inizio della formazione
- Ritenuta: importo stimato + margine di sicurezza del 20% riservato dal saldo
- Treno: importo riservato indicato come "Riservato" nel saldo
- Pagamento: al termine, verrà addebitato solo GPU effettivo di utilizzo GPU
- Rimborso: qualsiasi importo in eccesso verrà automaticamente restituito al tuo saldo.
Protezione del Consumatore
Non ti verrà mai addebitato un importo superiore al preventivo mostrato prima della formazione. Se la formazione termina in anticipo o viene annullata, pagherai solo per il tempo di elaborazione effettivamente utilizzato.
Metodi di pagamento
| Metodo | Descrizione |
|---|---|
| Saldo del conto | Crediti precaricati |
| Pagamento per Lavoro | Addebito al completamento del lavoro |
Saldo Minimo
È richiesto un saldo minimo di $5.00 per avviare l'addestramento basato su epoche.
Visualizzare i costi di addestramento
Dopo l'addestramento, visualizza i costi dettagliati nella scheda Fatturazione:
- Ripartizione dei costi per epoca
- Tempo totale della GPU
- Scarica il report dei costi
Suggerimenti per l'addestramento
Scegliere la dimensione del modello giusta
| Modello | Parametri | Ideale per |
|---|---|---|
| YOLO26n | 2.4M | Dispositivi edge, in tempo reale |
| YOLO26s | 9.5M | Velocità/precisione bilanciata |
| YOLO26m | 20.4M | Maggiore precisione |
| YOLO26l | 24.8M | Precisione per la produzione |
| YOLO26x | 55.7M | Massima precisione |
Ottimizzare il tempo di addestramento
- Inizia in piccolo: Testa prima con meno epoche
- Usa la GPU appropriata: Abbina la GPU al modello/dimensione del batch
- Convalida il dataset: Assicurati della qualità prima dell'addestramento
- Monitora precocemente: Interrompi se le metriche si stabilizzano
Risoluzione dei problemi
| Problema | Soluzione |
|---|---|
| Addestramento bloccato allo 0% | Controlla il formato del dataset, riprova |
| Memoria insufficiente | Riduci la dimensione del batch o usa una GPU più grande |
| Scarsa precisione | Aumenta le epoche, controlla la qualità dei dati |
| Addestramento lento | Considera una GPU più veloce |
FAQ
Quanto tempo richiede l'addestramento?
Il tempo di addestramento dipende da:
- Dimensione del dataset
- Dimensione del modello
- Numero di epoche
- GPU selezionata
Tempi tipici (1000 immagini, 100 epoche):
| Modello | RTX 4090 | A100 |
|---|---|---|
| YOLO26n | 30 min | 20 min |
| YOLO26m | 60 min | 40 min |
| YOLO26x | 120 min | 80 min |
Posso addestrare durante la notte?
Sì, l'addestramento continua fino al completamento. Riceverai una notifica al termine dell'addestramento. Assicurati che il tuo account abbia un saldo sufficiente per l'addestramento basato su epoche.
Cosa succede se esaurisco i crediti?
L'addestramento si interrompe alla fine dell'epoca corrente. Il tuo checkpoint viene salvato e puoi riprendere dopo aver aggiunto crediti.
Posso utilizzare argomenti di addestramento personalizzati?
Sì, gli utenti avanzati possono specificare argomenti aggiuntivi nella configurazione di addestramento.
Riferimento ai parametri di addestramento
Parametri principali
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Numero di epoche di addestramento |
batch | int | 16 | -1 = automatico | Dimensione del batch (-1 per automatico) |
imgsz | int | 640 | 32+ | Dimensione dell'immagine di input |
patience | int | 100 | 0+ | Pazienza per l'early stopping |
workers | int | 8 | 0+ | Worker del dataloader |
cache | booleano | Falso | - | Cache immagini (RAM/disco) |
Parametri del tasso di apprendimento
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
lr0 | float | 0.01 | 0.0-1.0 | Tasso di apprendimento iniziale |
lrf | float | 0.01 | 0.0-1.0 | Fattore LR finale |
momentum | float | 0.937 | 0.0-1.0 | Momentum SGD |
weight_decay | float | 0.0005 | 0.0-1.0 | Regolarizzazione L2 |
warmup_epochs | float | 3.0 | 0+ | Epoche di Warmup |
cos_lr | booleano | Falso | - | Scheduler LR coseno |
Parametri di Augmentation
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0.0-1.0 | Augmentazione tonalità HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturazione HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valore HSV |
degrees | float | 0.0 | - | Gradi di rotazione |
translate | float | 0.1 | 0.0-1.0 | Frazione di traslazione |
scale | float | 0.5 | 0.0-1.0 | Fattore di scala |
fliplr | float | 0.5 | 0.0-1.0 | Probabilità di flip orizzontale |
flipud | float | 0.0 | 0.0-1.0 | Probabilità di flip verticale |
mosaic | float | 1.0 | 0.0-1.0 | Augmentation a mosaico |
mixup | float | 0.0 | 0.0-1.0 | Mixup augmentation |
copy_paste | float | 0.0 | 0.0-1.0 | Copy-paste (segment) |
Selezione dell'ottimizzatore
| Valore | Descrizione |
|---|---|
auto | Selezione automatica (predefinita) |
SGD | Discesa del gradiente stocastico |
Adam | Ottimizzatore Adam |
AdamW | Adam con decadimento del peso |
Parametri specifici del task
Alcuni parametri si applicano solo a task specifici:
- Segmentazione:
overlap_mask,mask_ratio,copy_paste - Posa:
pose(peso della loss),kobj(objectness dei keypoint) - Classificazione:
dropout,erasing,auto_augment