Vai al contenuto

Addestramento su Cloud

Ultralytics Platform Cloud Training offre l'addestramento con un solo clic su GPU su cloud, rendendo l'addestramento del modello accessibile senza configurazioni complesse. Addestra i modelli YOLO con streaming di metriche in tempo reale e salvataggio automatico dei checkpoint.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Dialogo di Addestramento

Avvia l'addestramento dall'interfaccia utente della piattaforma cliccando su Nuovo Modello in qualsiasi pagina di progetto (o su Addestra da una pagina di dataset). La finestra di dialogo dell'addestramento presenta due schede: Addestramento su Cloud e Addestramento Locale.

Finestra di Dialogo Addestramento Piattaforma Ultralytics Scheda Cloud

Passaggio 1: Selezionare il Modello Base

Scegli tra i modelli ufficiali YOLO26 o i tuoi modelli addestrati:

CategoriaDescrizione
UfficialeTutti i 25 modelli YOLO26 (5 dimensioni x 5 attività)
I tuoi modelliI tuoi modelli completati per il fine-tuning

I modelli ufficiali sono organizzati per tipo di compito (detect, segment, Pose, obb, classify) con dimensioni da nano a xlarge.

Passaggio 2: Selezionare il Dataset

Scegli un dataset su cui addestrare (vedi Datasets):

OpzioneDescrizione
UfficialeDataset curati da Ultralytics
I tuoi DatasetDataset che hai caricato

Requisiti del Dataset

I dataset devono essere in ready stato con almeno 1 immagine nello split di training, 1 immagine nello split di validazione o test e almeno 1 immagine etichettata.

Disallineamento del Task

Viene visualizzato un avviso di mancata corrispondenza del task se il task del modello (ad esempio, detect) non corrisponde al task del dataset (ad esempio, segment). Il training fallirà se si procede con task non corrispondenti. Assicurarsi che sia il modello che il dataset utilizzino lo stesso tipo di task, come descritto nelle guide ai task.

Passaggio 3: Configurare i Parametri

Imposta i parametri di addestramento principali:

ParametroDescrizionePredefinito
EpocheNumero di iterazioni di addestramento100
Dimensione BatchCampioni per iterazione16
Dimensione dell'immagineRisoluzione di input (menu a discesa 320/416/512/640/1280, o 32-4096 nell'editor yaml)640
Nome del runNome opzionale per l'esecuzione dell'addestramentoauto

Passaggio 4: Impostazioni Avanzate (Opzionale)

Espandi Impostazioni Avanzate per accedere all'editor completo dei parametri basato su YAML con oltre 40 parametri di training organizzati per gruppo (vedi riferimento alla configurazione):

GruppoParametri
Tasso di apprendimentolr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OttimizzatoreSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Pesi di perditabox, cls, dfl, pose, kobj, label_smoothing
Augmentazione del Colorehsv_h, hsv_s, hsv_v
Augmentazione Geometricagradi, trasla, scala, shear, prospettiva
Augmentazione Flip & Mixflipud, fliplr, mosaic, mixup, copy_paste
Controllo dell'Addestramentopatience, seed, deterministic, amp, cos_lr, close_mosaic, save_period
Set di datifrazione, freeze, single_cls, rect, multi_scale, resume

I parametri sono sensibili al compito (ad esempio, copy_paste mostra solo per i compiti di segment, pose/kobj solo per i compiti di posa). Un Modificato il badge appare quando i valori differiscono da quelli predefiniti, ed è possibile ripristinare tutti i valori predefiniti con il pulsante di reset.

Esempio: Ottimizzazione dell'aumento per piccoli dataset

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Passaggio 5: Selezionare la GPU (Scheda Cloud)

Scegli la tua GPU da Ultralytics Cloud:

Ultralytics Platform Training Dialog: Selettore GPU e Costo

GPUGenerazioneVRAMCosto/OraIdeale per
RTX 2000 AdaAda16 GB$0.24Dataset piccoli, test
RTX A4500Ampere20 GB$0.25Dataset di piccole-medie dimensioni
RTX 4000 AdaAda20 GB$0.26Dataset medi
RTX A5000Ampere24 GB$0.27Dataset medi
L4Ada24 GB$0.39Ottimizzato per l'inferenza
A40Ampere48 GB$0.40Dimensioni dei batch più grandi
RTX 3090Ampere24 GB$0.46Addestramento generale
RTX A6000Ampere48 GB$0.49Modelli di grandi dimensioni
RTX PRO 4500Blackwell32 GB$0.54Ottimo rapporto prezzo/prestazioni
RTX 4090Ada24 GB$0.59Miglior rapporto prezzo/prestazioni
RTX 6000 AdaAda48 GB$0.77Addestramento con batch di grandi dimensioni
L40SAda48 GB$0.86Addestramento con batch di grandi dimensioni
RTX 5090Blackwell32 GB$0.89Ultima generazione consumer
L40Ada48 GB$0.99Modelli di grandi dimensioni
A100 PCIeAmpere80 GB$1.39Addestramento per la produzione
A100 SXMAmpere80 GB$1.49Addestramento per la produzione
RTX PRO 6000Blackwell96 GB$1.69Predefinito consigliato
H100 PCIeHopper80 GB$2.39Addestramento ad alte prestazioni
H100 SXMHopper80 GB$2.69Addestramento più veloce
H100 NVLHopper94 GB$3.07Massime prestazioni
H200 NVLHopper143 GB$3.39Memoria massima (Pro+)
H200 SXMHopper141 GB$3.59Prestazioni massime (Pro+)
B200Blackwell180 GB$4.99Modelli più grandi (Pro+)

Selezione GPU

  • RTX PRO 6000: 96 GB generazione Blackwell, predefinita consigliata per la maggior parte dei lavori
  • A100 SXM: Richiesto per grandi dimensioni di batch o modelli complessi
  • H100/H200: Massime prestazioni per training sensibili al tempo (H200 richiede Pro o Enterprise)
  • B200: Architettura NVIDIA Blackwell per carichi di lavoro all'avanguardia (richiede Pro o Enterprise)

La finestra di dialogo mostra il tuo saldo attuale e un pulsante Ricarica. Un costo e una durata stimati vengono calcolati in base alla tua configurazione (dimensione del modello, immagini del dataset, epoche, velocità della GPU).

Passaggio 6: Avviare il Training

Clicca su Avvia Addestramento per avviare il tuo lavoro. La piattaforma:

  1. Effettua il provisioning di un'istanza GPU
  2. Scarica il tuo dataset
  3. Inizia l'addestramento
  4. Trasmette le metriche in tempo reale

Ciclo di Vita del Lavoro di Addestramento

I lavori di addestramento progrediscono attraverso i seguenti stati:

StatoDescrizione
In sospesoProcesso inviato, in attesa di allocazione GPU
AvvioGPU predisposta, download del dataset e del modello
EsecuzioneAddestramento in corso, metriche in streaming in tempo reale
CompletatoAddestramento completato con successo
FallitoAddestramento fallito (vedi i log della console per i dettagli)
AnnullatoL'addestramento è stato annullato dall'utente

Crediti gratuiti

I nuovi account ricevono crediti di iscrizione — 5 $ per email personali e 25 $ per email aziendali. Controlla il tuo saldo in Impostazioni > Fatturazione.

Avanzamento dell'addestramento della piattaforma Ultralytics con grafici

Monitorare l'addestramento

Visualizza l'avanzamento dell'addestramento in tempo reale nella scheda Train della pagina del modello:

Sottoscheda Grafici

Piattaforma Ultralytics Grafici Live Addestramento Modello

MetricaDescrizione
PerditaLoss di addestramento e validazione
mAPPrecisione Media Aritmetica Media
PrecisionePredizioni positive corrette
RecallGround truth rilevate

Sottoscheda Console

Output della console in tempo reale con supporto colore ANSI, barre di avanzamento e rilevamento errori.

Sottoscheda Sistema

Utilizzo della GPU, memoria, temperatura, CPU e utilizzo del disco in tempo reale.

Checkpoint

I checkpoint vengono salvati automaticamente:

  • Ogni epoca: Pesi più recenti salvati
  • Miglior modello: Checkpoint con il mAP più alto preservato
  • Modello finale: Pesi al completamento dell'addestramento

Annulla Addestramento

Clicca Annulla Addestramento sulla pagina del modello per interrompere un'operazione in corso:

  • L'istanza di calcolo è terminata
  • I crediti cessano di essere addebitati
  • I checkpoint salvati fino a quel momento vengono preservati.

Addestramento remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Addestra sul tuo hardware mentre trasmetti le metriche alla piattaforma.

Requisiti di versione del pacchetto

L'integrazione della piattaforma richiede ultralytics>=8.4.14. Le versioni precedenti NON funzioneranno con la Piattaforma.

pip install -U ultralytics

Configurazione della chiave API

  1. Vai a Settings > Profile (sezione Chiavi API)
  2. Crea una nuova chiave (o la piattaforma ne crea automaticamente una quando apri la scheda Addestramento Locale)
  3. Imposta la variabile d'ambiente:
export ULTRALYTICS_API_KEY="YOUR_API_KEY"

Addestramento con streaming

Utilizzare il project e name parametri per lo streaming delle metriche:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

La scheda Local Training nella finestra di dialogo di training mostra un comando preconfigurato con la tua chiave API, i parametri selezionati e gli argomenti avanzati inclusi.

Utilizzo dei dataset della piattaforma

Addestra con i dataset archiviati sulla piattaforma utilizzando il ul:// Formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

Il ul:// Il formato URI scarica e configura automaticamente il tuo dataset. Il modello viene automaticamente collegato al dataset sulla piattaforma (vedi Utilizzo dei dataset della piattaforma).

Fatturazione

I costi di addestramento si basano sull'utilizzo della GPU:

Stima dei costi

Prima dell'inizio dell'addestramento, la piattaforma stima il costo totale tramite:

  1. Stima dei secondi per epoca dalla dimensione del dataset, complessità del modello, dimensione dell'immagine, dimensione del batch e velocità della GPU.
  2. Calcolo del tempo totale di addestramento moltiplicando i secondi per epoca per il numero di epoche, quindi aggiungendo l'overhead di avvio
  3. Calcolo del costo stimato dalle ore totali di training moltiplicate per la tariffa oraria della GPU

Fattori che incidono sul costo:

FattoreImpatto
Dimensione del set di datiPiù immagini = tempo di addestramento più lungo (baseline: ~2,8s di calcolo per 1000 immagini su RTX 4090)
Dimensione del modelloI modelli più grandi (m, l, x) si addestrano più lentamente rispetto a quelli (n, s)
Numero di epocheMoltiplicatore diretto sul tempo di formazione
Dimensione dell'immagineUn imgsz maggiore aumenta il carico computazionale: 320px=0.25x, 640px=1.0x (riferimento), 1280px=4.0x
Dimensione BatchBatch più grandi sono più efficienti (batch 32 = ~0.85x tempo, batch 8 = ~1.2x tempo rispetto al batch 16 di riferimento)
GPUGPU più veloci riducono il tempo di training (ad esempio, H100 SXM = ~3.4x più veloce di RTX 4090)
Overhead di avvioFino a 5 minuti per l'inizializzazione dell'istanza, il download dei dati e il warmup (varia in base alla dimensione del dataset)

Esempi di costi

Stime

Le stime dei costi sono approssimative e dipendono da molti fattori. La finestra di dialogo di addestramento mostra una stima in tempo reale prima di iniziare l'addestramento.

ScenarioGPUCosto stimato
500 immagini, YOLO26n, 50 epocheRTX 4090~$0.50
1000 immagini, YOLO26n, 100 epocheRTX PRO 6000~$5
5000 immagini, YOLO26s, 100 epocheH100 SXM~$23

Flusso di Fatturazione

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Flusso di fatturazione del training su cloud:

  1. Stima: Costo calcolato prima dell'inizio dell'addestramento
  2. Controllo del Saldo: I crediti disponibili vengono controllati prima del lancio
  3. Addestra: Il job viene eseguito sulla risorsa di calcolo selezionata
  4. Addebito: Il costo finale si basa sul tempo di esecuzione effettivo

Protezione del Consumatore

La fatturazione tiene traccia dell'utilizzo effettivo del calcolo, incluse le esecuzioni parziali che vengono annullate. Non ti verranno mai addebitati i costi per le esecuzioni di training fallite.

Fatturazione per Stato del Job

StatoAddebitato?
CompletatoSì — tempo GPU effettivo utilizzato
AnnullatoSì — tempo GPU dall'inizio all'annullamento
FallitoNo — le esecuzioni fallite non vengono addebitate
BloccatoParziale — viene addebitato solo il tempo di addestramento effettivo

Nessun costo per errori

Se un'esecuzione di addestramento fallisce a causa di un errore di configurazione, un problema di memoria insufficiente o qualsiasi altro errore, non ti viene addebitato alcun costo. Viene fatturato solo il tempo di calcolo riuscito. I lavori bloccati (nessuna attività per più di 4 ore) vengono automaticamente terminati e addebitati solo per il tempo in cui la GPU è stata attivamente in addestramento, non per il tempo di inattività.

Metodi di pagamento

MetodoDescrizione
Saldo del contoCrediti precaricati
Pagamento per LavoroAddebito al completamento del lavoro

Saldo Minimo

L'avvio dell'addestramento richiede un saldo disponibile positivo e crediti sufficienti per il costo stimato dell'operazione.

Visualizzare i costi di addestramento

Dopo l'addestramento, visualizza i costi dettagliati nella scheda Fatturazione:

  • Ripartizione dei costi per epoca
  • Tempo totale della GPU
  • Scarica il report dei costi

Addestramento Piattaforma Ultralytics Dettagli di Fatturazione

Suggerimenti per l'addestramento

Scegliere la dimensione del modello giusta

ModelloParametriIdeale per
YOLO26n2.4MDispositivi edge, in tempo reale
YOLO26s9.5MVelocità/precisione bilanciata
YOLO26m20.4MMaggiore precisione
YOLO26l24.8MPrecisione per la produzione
YOLO26x55.7MMassima precisione

Ottimizzare il tempo di addestramento

Strategie di Risparmio sui Costi

  1. Inizia in piccolo: Testa con 10-20 epoche su una GPU economica per verificare che il tuo dataset e la configurazione funzionino.
  2. Usa la GPU appropriata: La RTX PRO 6000 gestisce bene la maggior parte dei carichi di lavoro
  3. Convalida il dataset: Correggi i problemi di etichettatura prima di investire nell'addestramento.
  4. Monitora precocemente: Annulla l'addestramento se la perdita si stabilizza — paghi solo per il tempo di calcolo utilizzato

Risoluzione dei problemi

ProblemaSoluzione
Addestramento bloccato allo 0%Controlla il formato del dataset, riprova
Memoria insufficienteRiduci la dimensione del batch o usa una GPU più grande
Scarsa precisioneAumenta le epoche, controlla la qualità dei dati
Addestramento lentoConsidera una GPU più veloce
Errore di disallineamento del taskAssicurati che le attività del modello e del dataset corrispondano

FAQ

Quanto tempo richiede l'addestramento?

Il tempo di addestramento dipende da:

  • Dimensione del dataset
  • Dimensione del modello
  • Numero di epoche
  • GPU selezionata

Tempi tipici (1000 immagini, 100 epoche):

ModelloRTX PRO 6000A100 SXM
YOLO26n~20 minuticirca 15 minuti
YOLO26mcirca 40 minuticirca 30 minuti
YOLO26xcirca 80 minuticirca 60 minuti

Orari indicativi

I tempi di addestramento sono approssimativi e variano in base alla complessità del set di dati, alle impostazioni di potenziamento e alla dimensione dei batch. Per ottenere stime più accurate, utilizzare la stima dei costi riportata nella finestra di dialogo di addestramento.

Posso addestrare durante la notte?

Sì, l'addestramento continua fino al completamento. Riceverai una notifica al termine dell'addestramento. Assicurati che il tuo account abbia un saldo sufficiente per l'addestramento basato su epoche.

Cosa succede se esaurisco i crediti?

Se il tuo saldo crediti raggiunge lo zero durante un'esecuzione di addestramento, l'addestramento continua fino al completamento e il tuo saldo diventa negativo. Ciò garantisce che il tuo lavoro di addestramento non venga mai interrotto a metà.

Una volta completato il training, dovrai aggiungere crediti per riportare il tuo saldo in positivo prima di avviare nuovi job di training. Il tuo modello completato, i checkpoint e tutti gli artefatti di training sono completamente preservati indipendentemente dal saldo.

Saldo negativo

Un saldo negativo impedisce solo l'avvio di nuovi processi di training. Le distribuzioni esistenti e le altre funzionalità della piattaforma continuano a funzionare normalmente. Aggiungi crediti tramite Impostazioni > Fatturazione o abilita il ricarica automatica per evitare interruzioni.

Cosa succede se i costi del mio addestramento superano la stima?

Le stime dei costi sono approssimative — il tempo di addestramento effettivo può variare a causa di fattori come la velocità di caricamento dei dati, il riscaldamento della GPU e il comportamento di convergenza del modello. Se il costo effettivo supera la stima, il saldo potrebbe diventare negativo (vedi sopra). La piattaforma non interrompe l'addestramento in base alla stima.

Per gestire i costi:

  • Monitora l'avanzamento dell'addestramento in tempo reale e annulla in anticipo se necessario
  • Abilita la ricarica automatica per ricaricare automaticamente i crediti
  • Inizia con esecuzioni più brevi (meno epoche) per calibrare le aspettative.

Posso utilizzare argomenti di addestramento personalizzati?

Sì, espandi la sezione Impostazioni Avanzate nella finestra di dialogo di addestramento per accedere a un editor YAML con oltre 40 parametri configurabili. I valori non predefiniti sono inclusi sia nei comandi di addestramento cloud che locali.

L'editor YAML supporta anche l'importazione di configurazioni da esecuzioni di addestramento precedenti:

  • Copia da modello esistente: Sulla pagina di qualsiasi modello completato, la scheda Configurazione Training ha un pulsante Copia come JSON. Copia il JSON e incollalo direttamente nell'editor YAML — rileva automaticamente il formato JSON e importa tutti i parametri.
  • Incolla YAML o JSON: Incolla qualsiasi configurazione di addestramento YAML o JSON valida nell'editor. I parametri vengono convalidati automaticamente, con valori fuori intervallo limitati e avvisi visualizzati.
  • Trascina e rilascia i file: Trascina un .yaml oppure .json il file direttamente nell'editor per importarne i parametri.

Finestra di Dialogo Addestramento Piattaforma Ultralytics Copia Configurazione Addestramento JSON

Ciò facilita la riproduzione o l'iterazione su configurazioni di addestramento precedenti senza dover reinserire manualmente ogni parametro.

Posso addestrare da una pagina del dataset?

Sì, il pulsante Addestra sulle pagine dei dataset apre la finestra di dialogo di addestramento con il dataset preselezionato e bloccato. Quindi selezioni un progetto e un modello per iniziare l'addestramento.

Riferimento ai parametri di addestramento

ParametroTipoPredefinitoIntervalloDescrizione
epochsint1001-10000Numero di epoche di addestramento
batchint161-512Dimensione del batch
imgszint64032-4096Dimensione dell'immagine di input
patienceint1001-1000Pazienza per l'early stopping
seedint00-2147483647Seme casuale per la riproducibilità
deterministicbooleanoVero-Modalità di addestramento deterministica
ampbooleanoVero-Precisione mista automatica
close_mosaicint100-50Disabilita il mosaic nelle N epoche finali
save_periodint-1-1-100Salva checkpoint ogni N epoche
workersint80-64Worker del dataloader
cacheselezionafalsoRAM/disco/falseMemorizzazione nella cache delle immagini
ParametroTipoPredefinitoIntervalloDescrizione
lr0float0.010.0001-0.1Tasso di apprendimento iniziale
lrffloat0.010.01-1.0Fattore LR finale
momentumfloat0.9370.6-0.98Momentum SGD
weight_decayfloat0.00050.0-0.001Regolarizzazione L2
warmup_epochsfloat3.00-5Epoche di Warmup
warmup_momentumfloat0.80.5-0.95Momentum di warmup
warmup_bias_lrfloat0.10.0-0.2LR del bias di warmup
cos_lrbooleanoFalso-Scheduler LR coseno
ParametroTipoPredefinitoIntervalloDescrizione
hsv_hfloat0.0150.0-0.1Augmentazione tonalità HSV
hsv_sfloat0.70.0-1.0Saturazione HSV
hsv_vfloat0.40.0-1.0Valore HSV
degreesfloat0.0-45-45Gradi di rotazione
translatefloat0.10.0-1.0Frazione di traslazione
scalefloat0.50.0-1.0Fattore di scala
shearfloat0.0-10-10Gradi di taglio
perspectivefloat0.00.0-0.001Trasformazione prospettica
fliplrfloat0.50.0-1.0Probabilità di flip orizzontale
flipudfloat0.00.0-1.0Probabilità di flip verticale
mosaicfloat1.00.0-1.0Augmentation a mosaico
mixupfloat0.00.0-1.0Mixup augmentation
copy_pastefloat0.00.0-1.0Copy-paste (segment)
ParametroTipoPredefinitoIntervalloDescrizione
fractionfloat1.00.1-1.0Frazione del dataset da utilizzare
freezeintnull0-100Numero di strati da congelare
single_clsbooleanoFalso-Tratta tutte le classi come un'unica classe
rectbooleanoFalso-Addestramento rettangolare
multi_scalefloat0.00.0-1.0Intervallo di addestramento multi-scala
valbooleanoVero-Esegui la validazione durante l'addestramento
resumebooleanoFalso-Riprendi l'addestramento da checkpoint
ValoreDescrizione
autoSelezione automatica (predefinita)
SGDDiscesa del gradiente stocastico
MuSGDOttimizzatore Muon SGD
AdamOttimizzatore Adam
AdamWAdam con decadimento del peso
NAdamOttimizzatore NAdam
RAdamottimizzatore RAdam
RMSPropOttimizzatore RMSProp
AdamaxOttimizzatore Adamax
ParametroTipoPredefinitoIntervalloDescrizione
boxfloat7.51-50Peso della loss del riquadro
clsfloat0.50.2-4Peso della loss di classificazione
dflfloat1.50.4-6Loss focale di distribuzione
posefloat12.01-50Peso della perdita di posa (solo posa)
kobjfloat1.00.5-10Oggettività del keypoint (posa)
label_smoothingfloat0.00.0-0.1Fattore di smoothing delle etichette

Parametri specifici del task

Alcuni parametri si applicano solo a task specifici:

  • Solo task di rilevamento (detect, segment, pose, obb — non classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Solo segment: copy_paste
  • Solo posa: pose (peso della loss), kobj (objectness dei keypoint)


📅 Creato 2 mesi fa ✏️ Aggiornato 10 giorni fa
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

Commenti