Vai al contenuto

Addestramento su Cloud

Ultralytics Platform Cloud Training offre l'addestramento con un solo clic su GPU su cloud, rendendo l'addestramento del modello accessibile senza configurazioni complesse. Addestra i modelli YOLO con streaming di metriche in tempo reale e salvataggio automatico dei checkpoint.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Dialogo di Addestramento

Avvia l'addestramento dall'interfaccia utente della piattaforma cliccando su Nuovo Modello in qualsiasi pagina di progetto (o su Addestra da una pagina di dataset). La finestra di dialogo dell'addestramento presenta due schede: Addestramento su Cloud e Addestramento Locale.

Finestra di Dialogo Addestramento Piattaforma Ultralytics Scheda Cloud

Passaggio 1: Selezionare il Modello Base

Scegli tra i modelli ufficiali YOLO26 o i tuoi modelli addestrati:

CategoriaDescrizione
UfficialeTutti i 25 modelli YOLO26 (5 dimensioni x 5 attività)
I tuoi modelliI tuoi modelli completati per il fine-tuning

I modelli ufficiali sono organizzati per tipo di compito (detect, segment, Pose, obb, classify) con dimensioni da nano a xlarge.

Passaggio 2: Selezionare il Dataset

Scegli un dataset su cui addestrare (vedi Datasets):

OpzioneDescrizione
UfficialeDataset curati da Ultralytics
I tuoi DatasetDataset che hai caricato

Requisiti del Dataset

I dataset devono essere in ready stato con almeno 1 immagine nello split di training, 1 immagine nello split di validazione o test e almeno 1 immagine etichettata.

Disallineamento del Task

Viene visualizzato un avviso di mancata corrispondenza del task se il task del modello (ad esempio, detect) non corrisponde al task del dataset (ad esempio, segment). Il training fallirà se si procede con task non corrispondenti. Assicurarsi che sia il modello che il dataset utilizzino lo stesso tipo di task, come descritto nelle guide ai task.

Passaggio 3: Configurare i Parametri

Imposta i parametri di addestramento principali:

ParametroDescrizionePredefinito
EpocheNumero di iterazioni di addestramento100
Dimensione BatchCampioni per iterazione16
Dimensione dell'immagineRisoluzione di input (menu a discesa 320/416/512/640/1280, o 32-4096 nell'editor yaml)640
Nome del runNome opzionale per l'esecuzione dell'addestramentoauto

Passaggio 4: Impostazioni Avanzate (Opzionale)

Espandi Impostazioni Avanzate per accedere all'editor completo dei parametri basato su YAML con oltre 40 parametri di training organizzati per gruppo (vedi riferimento alla configurazione):

GruppoParametri
Tasso di apprendimentolr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OttimizzatoreSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Pesi di perditabox, cls, dfl, pose, kobj, label_smoothing
Augmentazione del Colorehsv_h, hsv_s, hsv_v
Augmentazione Geometricagradi, trasla, scala, shear, prospettiva
Augmentazione Flip & Mixflipud, fliplr, mosaic, mixup, copy_paste
Controllo dell'Addestramentopatience, seed, deterministic, amp, cos_lr, close_mosaic, save_period
Set di datifrazione, freeze, single_cls, rect, multi_scale, resume

I parametri sono sensibili al compito (ad esempio, copy_paste mostra solo per i compiti di segment, pose/kobj solo per i compiti di posa). Un Modificato il badge appare quando i valori differiscono da quelli predefiniti, ed è possibile ripristinare tutti i valori predefiniti con il pulsante di reset.

Esempio: Ottimizzazione dell'aumento per piccoli dataset

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Passaggio 5: Selezionare la GPU (Scheda Cloud)

Scegli la tua GPU da Ultralytics Cloud:

Ultralytics Platform Training Dialog: Selettore GPU e Costo

GPUVRAMCosto/Ora
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

Selezione GPU

  • RTX PRO 6000: 96 GB generazione Blackwell, predefinita consigliata per la maggior parte dei lavori
  • A100 SXM: Richiesto per grandi dimensioni di batch o modelli complessi
  • H100/H200: Prestazioni massime per l'addestramento in cui il tempo è un fattore critico (H200 richiede la versione Pro o Enterprise)
  • B200: Architettura NVIDIA per carichi di lavoro all’avanguardia (richiede versione Pro o Enterprise)

La finestra di dialogo mostra il tuo saldo attuale e un pulsante Ricarica. Un costo e una durata stimati vengono calcolati in base alla tua configurazione (dimensione del modello, immagini del dataset, epoche, velocità della GPU).

Passaggio 6: Avviare il Training

Clicca su Avvia Addestramento per avviare il tuo lavoro. La piattaforma:

  1. Effettua il provisioning di un'istanza GPU
  2. Scarica il tuo dataset
  3. Inizia l'addestramento
  4. Trasmette le metriche in tempo reale

Ciclo di Vita del Lavoro di Addestramento

I lavori di addestramento progrediscono attraverso i seguenti stati:

StatoDescrizione
In sospesoProcesso inviato, in attesa di allocazione GPU
AvvioGPU predisposta, download del dataset e del modello
EsecuzioneAddestramento in corso, metriche in streaming in tempo reale
CompletatoAddestramento completato con successo
FallitoAddestramento fallito (vedi i log della console per i dettagli)
AnnullatoL'addestramento è stato annullato dall'utente

Crediti gratuiti

I nuovi account ricevono crediti di iscrizione — 5 $ per email personali e 25 $ per email aziendali. Controlla il tuo saldo in Impostazioni > Fatturazione.

Avanzamento dell'addestramento della piattaforma Ultralytics con grafici

Monitorare l'addestramento

Visualizza l'avanzamento dell'addestramento in tempo reale nella scheda Train della pagina del modello:

Sottoscheda Grafici

Piattaforma Ultralytics Grafici Live Addestramento Modello

MetricaDescrizione
PerditaLoss di addestramento e validazione
mAPPrecisione Media Aritmetica Media
PrecisionePredizioni positive corrette
RecallGround truth rilevate

Sottoscheda Console

Output della console in tempo reale con supporto colore ANSI, barre di avanzamento e rilevamento errori.

Sottoscheda Sistema

Utilizzo della GPU, memoria, temperatura, CPU e utilizzo del disco in tempo reale.

Checkpoint

I checkpoint vengono salvati automaticamente:

  • Ogni epoca: Pesi più recenti salvati
  • Miglior modello: Checkpoint con il mAP più alto preservato
  • Modello finale: Pesi al completamento dell'addestramento

Annulla Addestramento

Clicca Annulla Addestramento sulla pagina del modello per interrompere un'operazione in corso:

  • L'istanza di calcolo è terminata
  • I crediti cessano di essere addebitati
  • I checkpoint salvati fino a quel momento vengono preservati.

Addestramento remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Addestra sul tuo hardware mentre trasmetti le metriche alla piattaforma.

Requisiti di versione del pacchetto

L'integrazione della piattaforma richiede ultralytics>=8.4.14. Le versioni precedenti NON funzioneranno con la Piattaforma.

pip install -U ultralytics

Configurazione della chiave API

  1. Vai a Settings > Profile (sezione Chiavi API)
  2. Crea una nuova chiave (o la piattaforma ne crea automaticamente una quando apri la scheda Addestramento Locale)
  3. Imposta la variabile d'ambiente:
export ULTRALYTICS_API_KEY="your_api_key"

Addestramento con streaming

Utilizzare il project e name parametri per lo streaming delle metriche:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

La scheda Local Training nella finestra di dialogo di training mostra un comando preconfigurato con la tua chiave API, i parametri selezionati e gli argomenti avanzati inclusi.

Utilizzo dei dataset della piattaforma

Addestra con i dataset archiviati sulla piattaforma utilizzando il ul:// Formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

Il ul:// Il formato URI scarica e configura automaticamente il tuo dataset. Il modello viene automaticamente collegato al dataset sulla piattaforma (vedi Utilizzo dei dataset della piattaforma).

Fatturazione

I costi di addestramento si basano sull'utilizzo della GPU:

Stima dei costi

Prima dell'inizio dell'addestramento, la piattaforma stima il costo totale tramite:

  1. Stima dei secondi per epoca dalla dimensione del dataset, complessità del modello, dimensione dell'immagine, dimensione del batch e velocità della GPU.
  2. Calcolo del tempo totale di addestramento moltiplicando i secondi per epoca per il numero di epoche, quindi aggiungendo l'overhead di avvio
  3. Calcolo del costo stimato dalle ore totali di training moltiplicate per la tariffa oraria della GPU

Fattori che incidono sul costo:

FattoreImpatto
Dimensione del set di datiPiù immagini = tempo di addestramento più lungo (baseline: ~2,8s di calcolo per 1000 immagini su RTX 4090)
Dimensione del modelloI modelli più grandi (m, l, x) si addestrano più lentamente rispetto a quelli (n, s)
Numero di epocheMoltiplicatore diretto sul tempo di formazione
Dimensione dell'immagineUn imgsz maggiore aumenta il carico computazionale: 320px=0.25x, 640px=1.0x (riferimento), 1280px=4.0x
Dimensione BatchBatch più grandi sono più efficienti (batch 32 = ~0.85x tempo, batch 8 = ~1.2x tempo rispetto al batch 16 di riferimento)
GPUGPU più veloci riducono il tempo di training (ad esempio, H100 SXM = ~3.4x più veloce di RTX 4090)
Overhead di avvioFino a 5 minuti per l'inizializzazione dell'istanza, il download dei dati e il warmup (varia in base alla dimensione del dataset)

Esempi di costi

Stime

Le stime dei costi sono approssimative e dipendono da molti fattori. La finestra di dialogo di addestramento mostra una stima in tempo reale prima di iniziare l'addestramento.

ScenarioGPUCosto stimato
500 immagini, YOLO26n, 50 epocheRTX 4090~$0.50
1000 immagini, YOLO26n, 100 epocheRTX PRO 6000~$5
5000 immagini, YOLO26s, 100 epocheH100 SXM~$23

Flusso di Fatturazione

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Flusso di fatturazione del training su cloud:

  1. Stima: costo calcolato prima dell'inizio della formazione
  2. Controllo del Saldo: I crediti disponibili vengono controllati prima del lancio
  3. Addestra: Il job viene eseguito sulla risorsa di calcolo selezionata
  4. Addebito: Il costo finale si basa sul tempo di esecuzione effettivo

Protezione del Consumatore

La fatturazione tiene traccia dell'utilizzo effettivo del calcolo, incluse le esecuzioni parziali che vengono annullate. Non ti verranno mai addebitati i costi per le esecuzioni di training fallite.

Fatturazione per Stato del Job

StatoAddebitato?
CompletatoSì — tempo GPU effettivo utilizzato
AnnullatoSì — tempo GPU dall'inizio all'annullamento
FallitoNo — le esecuzioni fallite non vengono addebitate
BloccatoParziale — viene addebitato solo il tempo di addestramento effettivo

Nessun costo per errori

Se un'esecuzione di addestramento fallisce a causa di un errore di configurazione, un problema di memoria insufficiente o qualsiasi altro errore, non ti viene addebitato alcun costo. Viene fatturato solo il tempo di calcolo riuscito. I lavori bloccati (nessuna attività per più di 4 ore) vengono automaticamente terminati e addebitati solo per il tempo in cui la GPU è stata attivamente in addestramento, non per il tempo di inattività.

Metodi di pagamento

MetodoDescrizione
Saldo del contoCrediti precaricati
Pagamento per LavoroAddebito al completamento del lavoro

Saldo Minimo

L'avvio dell'addestramento richiede un saldo disponibile positivo e crediti sufficienti per il costo stimato dell'operazione.

Visualizzare i costi di addestramento

Dopo l'addestramento, visualizza i costi dettagliati nella scheda Fatturazione:

  • Ripartizione dei costi per epoca
  • Tempo totale della GPU
  • Scarica il report dei costi

Addestramento Piattaforma Ultralytics Dettagli di Fatturazione

Suggerimenti per l'addestramento

Scegliere la dimensione del modello giusta

ModelloParametriIdeale per
YOLO26n2.4MDispositivi edge, in tempo reale
YOLO26s9.5MVelocità/precisione bilanciata
YOLO26m20.4MMaggiore precisione
YOLO26l24.8MPrecisione per la produzione
YOLO26x55.7MMassima precisione

Ottimizzare il tempo di addestramento

Strategie di Risparmio sui Costi

  1. Inizia in piccolo: Testa con 10-20 epoche su una GPU economica per verificare che il tuo dataset e la configurazione funzionino.
  2. Usa la GPU appropriata: La RTX PRO 6000 gestisce bene la maggior parte dei carichi di lavoro
  3. Convalida il dataset: Correggi i problemi di etichettatura prima di investire nell'addestramento.
  4. Monitora precocemente: Annulla l'addestramento se la perdita si stabilizza — paghi solo per il tempo di calcolo utilizzato

Risoluzione dei problemi

ProblemaSoluzione
Addestramento bloccato allo 0%Controlla il formato del dataset, riprova
Memoria insufficienteRiduci la dimensione del batch o usa una GPU più grande
Scarsa precisioneAumenta le epoche, controlla la qualità dei dati
Addestramento lentoConsidera una GPU più veloce
Errore di disallineamento del taskAssicurati che le attività del modello e del dataset corrispondano

FAQ

Quanto tempo richiede l'addestramento?

Il tempo di addestramento dipende da:

  • Dimensione del dataset
  • Dimensione del modello
  • Numero di epoche
  • GPU selezionata

Tempi tipici (1000 immagini, 100 epoche):

ModelloRTX PRO 6000A100
YOLO26n20 min20 min
YOLO26m40 min40 min
YOLO26x80 min80 min

Posso addestrare durante la notte?

Sì, l'addestramento continua fino al completamento. Riceverai una notifica al termine dell'addestramento. Assicurati che il tuo account abbia un saldo sufficiente per l'addestramento basato su epoche.

Cosa succede se esaurisco i crediti?

Se il tuo saldo crediti raggiunge lo zero durante un'esecuzione di addestramento, l'addestramento continua fino al completamento e il tuo saldo diventa negativo. Ciò garantisce che il tuo lavoro di addestramento non venga mai interrotto a metà.

Una volta completato il training, dovrai aggiungere crediti per riportare il tuo saldo in positivo prima di avviare nuovi job di training. Il tuo modello completato, i checkpoint e tutti gli artefatti di training sono completamente preservati indipendentemente dal saldo.

Saldo negativo

Un saldo negativo impedisce solo l'avvio di nuovi processi di training. Le distribuzioni esistenti e le altre funzionalità della piattaforma continuano a funzionare normalmente. Aggiungi crediti tramite Impostazioni > Fatturazione o abilita il ricarica automatica per evitare interruzioni.

Cosa succede se i costi del mio addestramento superano la stima?

Le stime dei costi sono approssimative — il tempo di addestramento effettivo può variare a causa di fattori come la velocità di caricamento dei dati, il riscaldamento della GPU e il comportamento di convergenza del modello. Se il costo effettivo supera la stima, il saldo potrebbe diventare negativo (vedi sopra). La piattaforma non interrompe l'addestramento in base alla stima.

Per gestire i costi:

  • Monitora l'avanzamento dell'addestramento in tempo reale e annulla in anticipo se necessario
  • Abilita la ricarica automatica per ricaricare automaticamente i crediti
  • Inizia con esecuzioni più brevi (meno epoche) per calibrare le aspettative.

Posso utilizzare argomenti di addestramento personalizzati?

Sì, espandi la sezione Impostazioni Avanzate nella finestra di dialogo di addestramento per accedere a un editor YAML con oltre 40 parametri configurabili. I valori non predefiniti sono inclusi sia nei comandi di addestramento cloud che locali.

L'editor YAML supporta anche l'importazione di configurazioni da esecuzioni di addestramento precedenti:

  • Copia da modello esistente: Sulla pagina di qualsiasi modello completato, la scheda Configurazione Training ha un pulsante Copia come JSON. Copia il JSON e incollalo direttamente nell'editor YAML — rileva automaticamente il formato JSON e importa tutti i parametri.
  • Incolla YAML o JSON: Incolla qualsiasi configurazione di addestramento YAML o JSON valida nell'editor. I parametri vengono convalidati automaticamente, con valori fuori intervallo limitati e avvisi visualizzati.
  • Trascina e rilascia i file: Trascina un .yaml oppure .json il file direttamente nell'editor per importarne i parametri.

Finestra di Dialogo Addestramento Piattaforma Ultralytics Copia Configurazione Addestramento JSON

Ciò facilita la riproduzione o l'iterazione su configurazioni di addestramento precedenti senza dover reinserire manualmente ogni parametro.

Posso addestrare da una pagina del dataset?

Sì, il pulsante Addestra sulle pagine dei dataset apre la finestra di dialogo di addestramento con il dataset preselezionato e bloccato. Quindi selezioni un progetto e un modello per iniziare l'addestramento.

Riferimento ai parametri di addestramento

ParametroTipoPredefinitoIntervalloDescrizione
epochsint1001-10000Numero di epoche di addestramento
batchint161-512Dimensione del batch
imgszint64032-4096Dimensione dell'immagine di input
patienceint1001-1000Pazienza per l'early stopping
seedint00-2147483647Seme casuale per la riproducibilità
deterministicbooleanoVero-Modalità di addestramento deterministica
ampbooleanoVero-Precisione mista automatica
close_mosaicint100-50Disabilita il mosaic nelle N epoche finali
save_periodint-1-1-100Salva checkpoint ogni N epoche
workersint80-64Worker del dataloader
cacheselezionafalsoRAM/disco/falseMemorizzazione nella cache delle immagini
ParametroTipoPredefinitoIntervalloDescrizione
lr0float0.010.0001-0.1Tasso di apprendimento iniziale
lrffloat0.010.01-1.0Fattore LR finale
momentumfloat0.9370.6-0.98Momentum SGD
weight_decayfloat0.00050.0-0.001Regolarizzazione L2
warmup_epochsfloat3.00-5Epoche di Warmup
warmup_momentumfloat0.80.5-0.95Momentum di warmup
warmup_bias_lrfloat0.10.0-0.2LR del bias di warmup
cos_lrbooleanoFalso-Scheduler LR coseno
ParametroTipoPredefinitoIntervalloDescrizione
hsv_hfloat0.0150.0-0.1Augmentazione tonalità HSV
hsv_sfloat0.70.0-1.0Saturazione HSV
hsv_vfloat0.40.0-1.0Valore HSV
degreesfloat0.0-45-45Gradi di rotazione
translatefloat0.10.0-1.0Frazione di traslazione
scalefloat0.50.0-1.0Fattore di scala
shearfloat0.0-10-10Gradi di taglio
perspectivefloat0.00.0-0.001Trasformazione prospettica
fliplrfloat0.50.0-1.0Probabilità di flip orizzontale
flipudfloat0.00.0-1.0Probabilità di flip verticale
mosaicfloat1.00.0-1.0Augmentation a mosaico
mixupfloat0.00.0-1.0Mixup augmentation
copy_pastefloat0.00.0-1.0Copy-paste (segment)
ParametroTipoPredefinitoIntervalloDescrizione
fractionfloat1.00.1-1.0Frazione del dataset da utilizzare
freezeintnull0-100Numero di strati da congelare
single_clsbooleanoFalso-Tratta tutte le classi come un'unica classe
rectbooleanoFalso-Addestramento rettangolare
multi_scalefloat0.00.0-1.0Intervallo di addestramento multi-scala
valbooleanoVero-Esegui la validazione durante l'addestramento
resumebooleanoFalso-Riprendi l'addestramento da checkpoint
ValoreDescrizione
autoSelezione automatica (predefinita)
SGDDiscesa del gradiente stocastico
MuSGDOttimizzatore Muon SGD
AdamOttimizzatore Adam
AdamWAdam con decadimento del peso
NAdamOttimizzatore NAdam
RAdamottimizzatore RAdam
RMSPropOttimizzatore RMSProp
AdamaxOttimizzatore Adamax
ParametroTipoPredefinitoIntervalloDescrizione
boxfloat7.51-50Peso della loss del riquadro
clsfloat0.50.2-4Peso della loss di classificazione
dflfloat1.50.4-6Loss focale di distribuzione
posefloat12.01-50Peso della perdita di posa (solo posa)
kobjfloat1.00.5-10Oggettività del keypoint (posa)
label_smoothingfloat0.00.0-0.1Fattore di smoothing delle etichette

Parametri specifici del task

Alcuni parametri si applicano solo a task specifici:

  • Solo task di rilevamento (detect, segment, pose, obb — non classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Solo segment: copy_paste
  • Solo posa: pose (peso della loss), kobj (objectness dei keypoint)


📅 Creato 2 mesi fa ✏️ Aggiornato 2 giorni fa
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

Commenti