Addestramento su Cloud
Ultralytics Platform Cloud Training offre l'addestramento con un solo clic su GPU su cloud, rendendo l'addestramento del modello accessibile senza configurazioni complesse. Addestra i modelli YOLO con streaming di metriche in tempo reale e salvataggio automatico dei checkpoint.
graph LR
A[Configure] --> B[Start Training]
B --> C[Provision GPU]
C --> D[Download Dataset]
D --> E[Train]
E --> F[Stream Metrics]
F --> G[Save Checkpoints]
G --> H[Complete]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style E fill:#9C27B0,color:#fff
style H fill:#4CAF50,color:#fff
Finestra di dialogo Formazione
Avvia l'addestramento dall'interfaccia utente della piattaforma facendo clic su Nuovo modello in qualsiasi pagina del progetto (o Addestra da una pagina del set di dati). La finestra di dialogo dell'addestramento presenta due schede: Addestramento cloud e Addestramento locale.

Passaggio 1: selezionare il modello base
Scegli tra i modelli ufficiali YOLO26 o i tuoi modelli addestrati:
| Categoria | Descrizione |
|---|---|
| Ufficiale | Tutti i 25 modelli YOLO26 (5 dimensioni x 5 attività) |
| I tuoi modelli | I modelli completati per la messa a punto |
I modelli ufficiali sono organizzati per tipo di attività (rilevamento, segmentazione, posa, OBB, classificazione) con dimensioni che vanno da nano a xlarge.
Passaggio 2: selezionare il set di dati
Scegli un set di dati su cui addestrare il modello (vedi Set di dati):
| Opzione | Descrizione |
|---|---|
| Ufficiale | Set di dati curati da Ultralytics |
| I tuoi Dataset | Dataset che hai caricato |
Requisiti del set di dati
I set di dati devono essere in ready stato con almeno 1 immagine nella divisione del treno, 1 immagine nella divisione di convalida o test e almeno 1 immagine etichettata.
Disallineamento dei compiti
Se l'attività del modello (ad esempio, detect) non corrisponde all'attività del set di dati (ad esempio, segment), viene visualizzato un avviso di mancata corrispondenza delle attività. Se si procede con attività non corrispondenti, l'addestramento non andrà a buon fine. Assicurarsi che sia il modello che il set di dati utilizzino lo stesso tipo di attività, come descritto nelle guide alle attività.
Passaggio 3: configurare i parametri
Imposta i parametri di allenamento principali:
| Parametro | Descrizione | Predefinito |
|---|---|---|
| Epoche | Numero di iterazioni di addestramento | 100 |
| Dimensione Batch | Campioni per iterazione | 16 |
| Dimensione dell'immagine | Risoluzione di input (menu a tendina 320/416/512/640/1280 o 32-4096 nell'editor YAML) | 640 |
| Nome della corsa | Nome facoltativo per la sessione di allenamento | auto |
Passaggio 4: Impostazioni avanzate (facoltativo)
Espandi Impostazioni avanzate per accedere all'editor completo dei parametri basato su YAML con oltre 40 parametri di addestramento organizzati per gruppo (vedi riferimento alla configurazione):
| Gruppo | Parametri |
|---|---|
| Tasso di apprendimento | lr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr |
| Ottimizzatore | SGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax |
| Pesi di perdita | box, cls, dfl, pose, kobj, label_smoothing |
| Aumento del colore | hsv_h, hsv_s, hsv_v |
| Aumento geometrico. | gradi, traslazione, scala, taglio, prospettiva |
| Flip & Mix Augment. | capovolgere, capovolgere, mosaico, mescolare, copia_incolla |
| Controllo della formazione | pazienza, seme, deterministico, amp, cos_lr, close_mosaic, save_period |
| Set di dati | frazione, congelamento, single_cls, rettangolo, multi_scala, riprendi |
I parametri sono sensibili alle attività (ad esempio, copy_paste mostra solo per segment , pose/kobj solo per compiti di posa). A Modificato Il badge appare quando i valori differiscono da quelli predefiniti ed è possibile ripristinare tutti i valori predefiniti con il pulsante di ripristino.
Esempio: Ottimizzazione dell'aumento per piccoli set di dati
For small datasets (<1000 images), increase augmentation to reduce overfitting:
mosaic: 1.0 # Keep mosaic on
mixup: 0.3 # Add mixup blending
copy_paste: 0.3 # Add copy-paste (segment only)
fliplr: 0.5 # Horizontal flip
degrees: 10.0 # Slight rotation
scale: 0.9 # Aggressive scaling
Passaggio 5: selezionare GPU scheda Cloud)
Scegli GPU tua GPU Ultralytics :

| GPU | VRAM | Costo/Ora |
|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 |
| RTX A4500 | 20 GB | $0.24 |
| RTX A5000 | 24 GB | $0.26 |
| RTX 4000 Ada | 20 GB | $0.38 |
| L4 | 24 GB | $0.39 |
| A40 | 48 GB | $0.40 |
| RTX 3090 | 24 GB | $0.46 |
| RTX A6000 | 48 GB | $0.49 |
| RTX 4090 | 24 GB | $0.59 |
| RTX 6000 Ada | 48 GB | $0.77 |
| L40S | 48 GB | $0.86 |
| RTX 5090 | 32 GB | $0.89 |
| L40 | 48 GB | $0.99 |
| A100 PCIe | 80 GB | $1.39 |
| A100 SXM | 80 GB | $1.49 |
| RTX PRO 6000 | 96 GB | $1.89 |
| H100 PCIe | 80 GB | $2.39 |
| H100 SXM | 80 GB | $2.69 |
| H100 NVL | 94 GB | $3.07 |
| H200 NVL | 143 GB | $3.39 |
| H200 SXM | 141 GB | $3.59 |
| B200 | 180 GB | $4.99 |
Selezione GPU
- RTX PRO 6000: 96 GB generazione Blackwell, impostazione predefinita consigliata per la maggior parte dei lavori
- A100 SXM: Richiesto per lotti di grandi dimensioni o modelli di grandi dimensioni
- H100/H200: massime prestazioni per allenamenti in cui il tempo è un fattore determinante
- B200: architettura NVIDIA per carichi di lavoro all'avanguardia
La finestra di dialogo mostra il saldo corrente e un pulsante Ricarica. Il costo e la durata stimati vengono calcolati in base alla configurazione (dimensioni del modello, immagini del set di dati, epoche, GPU ).
Passaggio 6: Inizia l'allenamento
Clicca su Avvia Addestramento per avviare il tuo lavoro. La piattaforma:
- Effettua il provisioning di un'istanza GPU
- Scarica il tuo dataset
- Inizia l'addestramento
- Trasmette le metriche in tempo reale
Ciclo di vita della formazione professionale
I lavori di formazione procedono attraverso i seguenti stati:
| Stato | Descrizione |
|---|---|
| In sospeso | Lavoro inviato, in attesa di GPU |
| Inizio | GPU , download del set di dati e del modello in corso |
| Corsa | Formazione in corso, metriche in streaming in tempo reale |
| Completato | Formazione completata con successo |
| Fallito | Formazione non riuscita (vedere i log della console per i dettagli) |
| Annullato | La formazione è stata annullata dall'utente |
Crediti gratuiti
I nuovi account ricevono crediti di iscrizione: 5 $ per gli indirizzi e-mail personali e 25 $ per quelli aziendali. Controlla il tuo saldo in Impostazioni > Fatturazione.

Monitorare l'addestramento
Visualizza i progressi dell'addestramento in tempo reale nella scheda Addestra della pagina del modello:
Sottoscheda Grafici

| Metrica | Descrizione |
|---|---|
| Perdita | Loss di addestramento e validazione |
| mAP | Precisione Media Aritmetica Media |
| Precisione | Predizioni positive corrette |
| Recall | Ground truth rilevate |
Sottoscheda Console
Output della console live con supporto dei colori ANSI, barre di avanzamento e rilevamento degli errori.
Sottoscheda Sistema
GPU in tempo reale, memoria, temperatura, CPU e utilizzo del disco.
Checkpoint
I checkpoint vengono salvati automaticamente:
- Ogni epoca: Pesi più recenti salvati
- Miglior modello: Checkpoint con il mAP più alto preservato
- Modello finale: Pesi al completamento dell'addestramento
Annulla Addestramento
Fare clic su Annulla formazione nella pagina del modello per interrompere un processo in esecuzione:
- L'istanza di calcolo è stata terminata.
- I crediti cessano di essere addebitati
- I checkpoint salvati fino a quel momento vengono conservati
Addestramento remoto
graph LR
A[Local GPU] --> B[Train]
B --> C[ultralytics Package]
C --> D[Stream Metrics]
D --> E[Platform Dashboard]
style A fill:#FF9800,color:#fff
style C fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
Esegui la formazione sul tuo hardware mentre trasmetti le metriche alla piattaforma.
Requisiti di versione del pacchetto
L'integrazione con la piattaforma richiede ultralytics>= 8.4.14. Le versioni precedenti NON funzionano con la piattaforma.
pip install -U ultralytics
Configurazione della chiave API
- Vai a
Settings > Profile(Sezione Chiavi API) - Crea una nuova chiave (oppure la piattaforma ne crea una automaticamente quando apri la scheda Formazione locale)
- Imposta la variabile d'ambiente:
export ULTRALYTICS_API_KEY="your_api_key"
Addestramento con streaming
Utilizzare il project e name parametri per lo streaming delle metriche:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
La scheda Formazione locale nella finestra di dialogo Formazione mostra un comando preconfigurato con la chiave API, i parametri selezionati e gli argomenti avanzati inclusi.
Utilizzo dei dataset della piattaforma
Addestrare con set di dati memorizzati sulla piattaforma utilizzando il ul:// Formato URI:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
Il ul:// Il formato URI scarica e configura automaticamente il set di dati. Il modello viene collegato automaticamente al set di dati sulla piattaforma (vedere Utilizzo dei dataset della piattaforma).
Fatturazione
I costi di addestramento si basano sull'utilizzo della GPU:
Stima dei costi
Prima dell'inizio della formazione, la piattaforma stima il costo totale in base a:
- Stima dei secondi per epoca in base alle dimensioni del set di dati, alla complessità del modello, alle dimensioni dell'immagine, alle dimensioni del batch e GPU
- Calcolo del tempo totale di formazione moltiplicando i secondi per epoca per il numero di epoche, quindi aggiungendo il sovraccarico di avvio
- Calcolo del costo stimato dal totale delle ore di formazione moltiplicato per la tariffa oraria GPU
Fattori che incidono sul costo:
| Fattore | Impatto |
|---|---|
| Dimensione del set di dati | Più immagini = tempo di addestramento più lungo (valore di riferimento: ~2,8 secondi di calcolo per 1000 immagini su RTX 4090) |
| Dimensione del modello | I modelli più grandi (m, l, x) si addestrano più lentamente rispetto a quelli (n, s) |
| Numero di epoche | Moltiplicatore diretto sul tempo di formazione |
| Dimensione dell'immagine | Una dimensione immagine maggiore aumenta il calcolo: 320px=0,25x, 640px=1,0x (valore di riferimento), 1280px=4,0x |
| Dimensione Batch | I lotti più grandi sono più efficienti (lotto 32 = ~0,85 volte il tempo, lotto 8 = ~1,2 volte il tempo rispetto al lotto 16 di riferimento) |
| GPU | Le GPU più veloci riducono i tempi di addestramento (ad esempio, H100 SXM = ~3,4 volte più veloce di RTX 4090) |
| Costi generali di avvio | Fino a 5 minuti per l'inizializzazione dell'istanza, il download dei dati e il riscaldamento (in base alle dimensioni del set di dati) |
Esempi di costi
Stime
Le stime dei costi sono approssimative e dipendono da molti fattori. La finestra di dialogo relativa alla formazione mostra una stima in tempo reale prima dell'inizio della formazione.
| Scenario | GPU | Costo stimato |
|---|---|---|
| 500 immagini, YOLO26n, 50 epoche | RTX 4090 | ~0,50 $ |
| 1000 immagini, YOLO26n, 100 epoche | RTX PRO 6000 | ~5 dollari |
| 5000 immagini, YOLO26s, 100 epoche | H100 SXM | ~23 dollari |
Flusso di fatturazione
graph LR
A[Estimate Cost] --> B[Balance Check]
B --> C[Train]
C --> D[Charge Actual Runtime]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style C fill:#9C27B0,color:#fff
style D fill:#4CAF50,color:#fff
Flusso di fatturazione della formazione sul cloud:
- Stima: costo calcolato prima dell'inizio della formazione
- Controllo del saldo: prima dell'avvio viene verificata la disponibilità di crediti
- Treno: il lavoro viene eseguito sul computer selezionato
- Addebito: il costo finale è basato sul tempo di funzionamento effettivo
Protezione del Consumatore
La fatturazione tiene traccia dell'utilizzo effettivo delle risorse di calcolo, comprese le esecuzioni parziali che vengono annullate.
Metodi di pagamento
| Metodo | Descrizione |
|---|---|
| Saldo del conto | Crediti precaricati |
| Pagamento per Lavoro | Addebito al completamento del lavoro |
Saldo Minimo
Per iniziare la formazione è necessario disporre di un saldo disponibile positivo e di crediti sufficienti a coprire il costo stimato del lavoro.
Visualizzare i costi di addestramento
Dopo l'addestramento, visualizza i costi dettagliati nella scheda Fatturazione:
- Ripartizione dei costi per epoca
- Tempo totale della GPU
- Scarica il report dei costi

Suggerimenti per l'addestramento
Scegliere la dimensione del modello giusta
| Modello | Parametri | Ideale per |
|---|---|---|
| YOLO26n | 2.4M | Dispositivi edge, in tempo reale |
| YOLO26s | 9.5M | Velocità/precisione bilanciata |
| YOLO26m | 20.4M | Maggiore precisione |
| YOLO26l | 24.8M | Precisione per la produzione |
| YOLO26x | 55.7M | Massima precisione |
Ottimizzare il tempo di addestramento
Strategie di risparmio sui costi
- Inizia in piccolo: esegui un test con 10-20 epoche su una GPU economica GPU verificare il tuo set di dati e la configurazione.
- Utilizza GPU adeguata: RTX PRO 6000 gestisce bene la maggior parte dei carichi di lavoro
- Convalida del set di dati: risolvi i problemi di etichettatura prima di investire nella formazione
- Monitoraggio tempestivo: annullare la formazione se la perdita si stabilizza — si paga solo per il tempo di calcolo utilizzato
Risoluzione dei problemi
| Problema | Soluzione |
|---|---|
| Addestramento bloccato allo 0% | Controlla il formato del dataset, riprova |
| Memoria insufficiente | Riduci la dimensione del batch o usa una GPU più grande |
| Scarsa precisione | Aumenta le epoche, controlla la qualità dei dati |
| Addestramento lento | Considera una GPU più veloce |
| Errore di incompatibilità dei compiti | Assicurarsi che le attività relative al modello e al set di dati corrispondano |
FAQ
Quanto tempo richiede l'addestramento?
Il tempo di addestramento dipende da:
- Dimensione del dataset
- Dimensione del modello
- Numero di epoche
- GPU selezionata
Tempi tipici (1000 immagini, 100 epoche):
| Modello | RTX PRO 6000 | A100 |
|---|---|---|
| YOLO26n | 20 min | 20 min |
| YOLO26m | 40 min | 40 min |
| YOLO26x | 80 min | 80 min |
Posso addestrare durante la notte?
Sì, l'addestramento continua fino al completamento. Riceverai una notifica al termine dell'addestramento. Assicurati che il tuo account abbia un saldo sufficiente per l'addestramento basato su epoche.
Cosa succede se esaurisco i crediti?
L'addestramento si interrompe alla fine dell'epoca corrente. Il tuo checkpoint viene salvato e puoi riprendere dopo aver aggiunto crediti.
Posso utilizzare argomenti di addestramento personalizzati?
Sì, espandi la sezione Impostazioni avanzate nella finestra di dialogo di formazione per accedere a un editor YAML con oltre 40 parametri configurabili. I valori non predefiniti sono inclusi sia nei comandi di formazione cloud che in quelli locali.
Posso eseguire l'addestramento da una pagina del set di dati?
Sì, il pulsante Train nelle pagine dei set di dati apre la finestra di dialogo di addestramento con il set di dati preselezionato e bloccato. È quindi possibile selezionare un progetto e un modello per avviare l'addestramento.
Riferimento ai parametri di addestramento
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
epochs | int | 100 | 1-10000 | Numero di epoche di addestramento |
batch | int | 16 | 1-512 | Dimensione del batch |
imgsz | int | 640 | 32-4096 | Dimensione dell'immagine di input |
patience | int | 100 | 1-1000 | Pazienza per l'early stopping |
seed | int | 0 | 0-2147483647 | Seme casuale per la riproducibilità |
deterministic | booleano | Vero | - | Modalità di addestramento deterministica |
amp | booleano | Vero | - | Precisione mista automatica |
close_mosaic | int | 10 | 0-50 | Disabilita mosaico negli ultimi N epoch |
save_period | int | -1 | -1-100 | Salva checkpoint ogni N epoche |
workers | int | 8 | 0-64 | Worker del dataloader |
cache | selezionare | falso | ram/disco/falso | Immagini cache |
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
lr0 | float | 0.01 | 0,0001-0,1 | Tasso di apprendimento iniziale |
lrf | float | 0.01 | 0,01-1,0 | Fattore LR finale |
momentum | float | 0.937 | 0,6-0,98 | Momentum SGD |
weight_decay | float | 0.0005 | 0,0-0,001 | Regolarizzazione L2 |
warmup_epochs | float | 3.0 | 0-5 | Epoche di Warmup |
warmup_momentum | float | 0.8 | 0,5-0,95 | Slancio di riscaldamento |
warmup_bias_lr | float | 0.1 | 0,0-0,2 | Bias di riscaldamento LR |
cos_lr | booleano | Falso | - | Scheduler LR coseno |
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0,0-0,1 | Augmentazione tonalità HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturazione HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valore HSV |
degrees | float | 0.0 | -45-45 | Gradi di rotazione |
translate | float | 0.1 | 0.0-1.0 | Frazione di traslazione |
scale | float | 0.5 | 0.0-1.0 | Fattore di scala |
shear | float | 0.0 | -10-10 | Gradi di taglio |
perspective | float | 0.0 | 0,0-0,001 | Trasformazione prospettica |
fliplr | float | 0.5 | 0.0-1.0 | Probabilità di flip orizzontale |
flipud | float | 0.0 | 0.0-1.0 | Probabilità di flip verticale |
mosaic | float | 1.0 | 0.0-1.0 | Augmentation a mosaico |
mixup | float | 0.0 | 0.0-1.0 | Mixup augmentation |
copy_paste | float | 0.0 | 0.0-1.0 | Copy-paste (segment) |
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
fraction | float | 1.0 | 0,1-1,0 | Frazione del set di dati da utilizzare |
freeze | int | null | 0-100 | Numero di strati da congelare |
single_cls | booleano | Falso | - | Trattare tutte le classi come un'unica classe |
rect | booleano | Falso | - | Allenamento rettangolare |
multi_scale | float | 0.0 | 0.0-1.0 | Campo di addestramento multiscala |
val | booleano | Vero | - | Eseguire la convalida durante l'addestramento |
resume | booleano | Falso | - | Riprendi l'allenamento dal checkpoint |
| Valore | Descrizione |
|---|---|
auto | Selezione automatica (predefinita) |
SGD | Discesa del gradiente stocastico |
MuSGD | SGD Muon SGD |
Adam | Ottimizzatore Adam |
AdamW | Adam con decadimento del peso |
NAdam | Ottimizzatore NAdam |
RAdam | Ottimizzatore RAdam |
RMSProp | Ottimizzatore RMSProp |
Adamax | Ottimizzatore Adamax |
| Parametro | Tipo | Predefinito | Intervallo | Descrizione |
|---|---|---|---|---|
box | float | 7.5 | 1-50 | Peso della loss del riquadro |
cls | float | 0.5 | 0,2-4 | Perdita di peso per classificazione |
dfl | float | 1.5 | 0,4-6 | Perdita focale di distribuzione |
pose | float | 12.0 | 1-50 | Pose perdita di peso (solo pose) |
kobj | float | 1.0 | 0,5-10 | Oggettività dei punti chiave (posa) |
label_smoothing | float | 0.0 | 0,0-0,1 | Fattore di livellamento dell'etichetta |
Parametri specifici del task
Alcuni parametri si applicano solo a task specifici:
- Solo attività di rilevamento (detect, segment, posizionare, OBB — non classify):
box,dfl,degrees,translate,shear,perspective,mosaic,mixup,close_mosaic - Solo segmento:
copy_paste - Solo posa:
pose(peso della loss),kobj(objectness dei keypoint)