Vai al contenuto

Formazione del modello con Ultralytics YOLO

Ultralytics YOLO ecosistema e integrazioni

Introduzione

Training a deep learning model involves feeding it data and adjusting its parameters so that it can make accurate predictions. Train mode in Ultralytics YOLO11 is engineered for effective and efficient training of object detection models, fully utilizing modern hardware capabilities. This guide aims to cover all the details you need to get started with training your own models using YOLO11's robust set of features.



Guarda: How to Train a YOLO model on Your Custom Dataset in Google Colab.

Perché scegliere Ultralytics YOLO per la formazione?

Here are some compelling reasons to opt for YOLO11's Train mode:

  • Efficienza: Sfrutta al massimo il tuo hardware, sia che si tratti di una configurazione singolaGPU sia che si tratti di scalare su più GPU.
  • Versatilità: Addestramento su set di dati personalizzati oltre a quelli già disponibili come COCO, VOC e ImageNet.
  • Facilità d'uso: interfacce CLI e Python semplici ma potenti per un'esperienza di formazione immediata.
  • Flessibilità degli iperparametri: Un'ampia gamma di iperparametri personalizzabili per mettere a punto le prestazioni del modello.

Caratteristiche principali della modalità Treno

The following are some notable features of YOLO11's Train mode:

  • Download automatico dei dataset: I set di dati standard come COCO, VOC e ImageNet vengono scaricati automaticamente al primo utilizzo.
  • Supporto Multi-GPU : Scala i tuoi sforzi formativi senza problemi su più GPU per accelerare il processo.
  • Configurazione degli iperparametri: L'opzione di modificare gli iperparametri attraverso i file di configurazione YAML o gli argomenti di CLI .
  • Visualizzazione e monitoraggio: Tracciamento in tempo reale delle metriche di formazione e visualizzazione del processo di apprendimento per una migliore comprensione.

Suggerimento

  • YOLO11 datasets like COCO, VOC, ImageNet and many others automatically download on first use, i.e. yolo train data=coco.yaml

Esempi di utilizzo

Train YOLO11n on the COCO8 dataset for 100 epochs at image size 640. The training device can be specified using the device argomento. Se non viene passato alcun argomento GPU device=0 verrà utilizzato se disponibile, altrimenti device='cpu' verrà utilizzato. Vedi la sezione Argomenti di seguito per un elenco completo degli argomenti di formazione.

Esempio di formazione singolaGPU e CPU

Il dispositivo viene determinato automaticamente. Se è disponibile un GPU verrà utilizzato, altrimenti l'addestramento inizierà su CPU.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

Formazione multiGPU

L'addestramento multiGPU permette di utilizzare in modo più efficiente le risorse hardware disponibili distribuendo il carico di addestramento su più GPU. Questa funzione è disponibile sia attraverso l'API Python che attraverso l'interfaccia a riga di comando. Per abilitare l'addestramento multiploGPU , specifica gli ID dei dispositivi GPU che desideri utilizzare.

Esempio di formazione multiGPU

Per allenarsi con 2 GPU, CUDA dispositivi 0 e 1, usa i seguenti comandi. Espandi ad altre GPU se necessario.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=0,1

Formazione Apple M1 e M2 MPS

Grazie al supporto dei chip Apple M1 e M2 integrati nei modelli Ultralytics YOLO , è ora possibile addestrare i tuoi modelli su dispositivi che utilizzano il potente framework Metal Performance Shaders (MPS). MPS offre un metodo ad alte prestazioni per l'esecuzione di attività di calcolo e di elaborazione delle immagini sul silicio personalizzato di Apple.

Per abilitare la formazione sui chip Apple M1 e M2, devi specificare 'mps' come dispositivo quando inizi il processo di formazione. Di seguito è riportato un esempio di come puoi farlo in Python e tramite la riga di comando:

MPS Esempio di formazione

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with MPS
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
# Start training from a pretrained *.pt model using MPS
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

Sfruttando la potenza di calcolo dei chip M1/M2, si ottiene un'elaborazione più efficiente dei compiti di formazione. Per una guida più dettagliata e per le opzioni di configurazione avanzate, consulta la documentazione di PyTorch MPS .

Riprendere gli allenamenti interrotti

Riprendere l'addestramento da uno stato precedentemente salvato è una funzione fondamentale quando si lavora con modelli di deep learning. Può essere utile in vari scenari, come quando il processo di addestramento è stato interrotto inaspettatamente o quando si desidera continuare ad addestrare un modello con nuovi dati o per più epoche.

When training is resumed, Ultralytics YOLO loads the weights from the last saved model and also restores the optimizer state, learning rate scheduler, and the epoch number. This allows you to continue the training process seamlessly from where it was left off.

Puoi riprendere facilmente la formazione in Ultralytics YOLO impostando il parametro resume argomento a True quando si chiama l'opzione train e specificando il percorso del metodo .pt contenente i pesi del modello parzialmente addestrato.

Di seguito è riportato un esempio di come riprendere una formazione interrotta utilizzando Python e tramite la linea di comando:

Esempio di curriculum formativo

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/last.pt")  # load a partially trained model

# Resume training
results = model.train(resume=True)
# Resume an interrupted training
yolo train resume model=path/to/last.pt

Impostando resume=True, il train continuerà l'allenamento dal punto in cui è stato interrotto, utilizzando lo stato memorizzato nel file "path/to/last.pt". Se il file resume è omesso o è impostato su False, il train inizierà una nuova sessione di formazione.

Remember that checkpoints are saved at the end of every epoch by default, or at fixed intervals using the save_period quindi devi completare almeno un'epoca per riprendere una sessione di allenamento.

Impostazioni del treno

The training settings for YOLO models encompass various hyperparameters and configurations used during the training process. These settings influence the model's performance, speed, and accuracy. Key training settings include batch size, learning rate, momentum, and weight decay. Additionally, the choice of optimizer, loss function, and training dataset composition can impact the training process. Careful tuning and experimentation with these settings are crucial for optimizing performance.

Argomento Predefinito Descrizione
model None Specifica il file del modello per la formazione. Accetta il percorso di un file .pt modello preaddestrato o un .yaml file di configurazione. È essenziale per definire la struttura del modello o per inizializzare i pesi.
data None Percorso del file di configurazione del dataset (es, coco8.yaml). This file contains dataset-specific parameters, including paths to training and validation data, class names, and number of classes.
epochs 100 Total number of training epochs. Each epoch represents a full pass over the entire dataset. Adjusting this value can affect training duration and model performance.
time None Tempo massimo di allenamento in ore. Se impostato, sostituisce l'opzione epochs che permette di interrompere automaticamente l'allenamento dopo la durata specificata. Utile per gli scenari di formazione con vincoli di tempo.
patience 100 Number of epochs to wait without improvement in validation metrics before early stopping the training. Helps prevent overfitting by stopping training when performance plateaus.
batch 16 Batch size, with three modes: set as an integer (e.g., batch=16), modalità automatica per un utilizzo del 60% della memoria di GPU (batch=-1) o la modalità automatica con la frazione di utilizzo specificata (batch=0.70).
imgsz 640 Target image size for training. All images are resized to this dimension before being fed into the model. Affects model accuracy and computational complexity.
save True Enables saving of training checkpoints and final model weights. Useful for resuming training or model deployment.
save_period -1 Frequenza di salvataggio dei checkpoint del modello, specificata in epoche. Un valore di -1 disabilita questa funzione. Utile per salvare i modelli intermedi durante le lunghe sessioni di allenamento.
cache False Abilita la cache delle immagini del dataset in memoria (True/ram), su disco (disk), oppure disabilitarlo (False). Migliora la velocità di formazione riducendo l'I/O del disco al costo di un maggiore utilizzo della memoria.
device None Specifica il/i dispositivo/i di calcolo per la formazione: un singolo GPU (device=0), GPU multiple (device=0,1), CPU (device=cpu), o MPS per il silicio Apple (device=mps).
workers 8 Numero di thread worker per il caricamento dei dati (per RANK se formazione Multi-GPU ). Influenza la velocità di preelaborazione dei dati e l'alimentazione del modello, particolarmente utile nelle configurazioni multiGPU .
project None Nome della directory del progetto in cui vengono salvati i risultati della formazione. Consente di archiviare in modo organizzato i diversi esperimenti.
name None Nome della sessione di allenamento. Utilizzato per creare una sottodirectory all'interno della cartella del progetto, dove vengono archiviati i log e gli output dell'allenamento.
exist_ok False Se è vero, permette di sovrascrivere una cartella di progetto/nome esistente. Utile per sperimentare in modo iterativo senza dover cancellare manualmente i risultati precedenti.
pretrained True Determina se iniziare l'addestramento da un modello preaddestrato. Può essere un valore booleano o un percorso di stringhe verso un modello specifico da cui caricare i pesi. Migliora l'efficienza della formazione e le prestazioni del modello.
optimizer 'auto' Scelta dell'ottimizzatore per la formazione. Le opzioni includono SGD, Adam, AdamW, NAdam, RAdam, RMSProp ecc. auto per la selezione automatica basata sulla configurazione del modello. Influisce sulla velocità di convergenza e sulla stabilità.
verbose False Abilita l'output verboso durante l'allenamento, fornendo registri dettagliati e aggiornamenti sui progressi. Utile per il debug e per monitorare da vicino il processo di formazione.
seed 0 Imposta il seme casuale per l'addestramento, garantendo la riproducibilità dei risultati tra le esecuzioni con le stesse configurazioni.
deterministic True Forza l'uso di algoritmi deterministici, garantendo la riproducibilità, ma può influire sulle prestazioni e sulla velocità a causa della limitazione degli algoritmi non deterministici.
single_cls False Tratta tutte le classi nei dataset multiclasse come un'unica classe durante l'addestramento. Utile per compiti di classificazione binaria o quando ci si concentra sulla presenza di oggetti piuttosto che sulla classificazione.
rect False Consente l'addestramento rettangolare, ottimizzando la composizione dei lotti per ottenere un'imbottitura minima. Può migliorare l'efficienza e la velocità, ma può influire sull'accuratezza del modello.
cos_lr False Utilizes a cosine learning rate scheduler, adjusting the learning rate following a cosine curve over epochs. Helps in managing learning rate for better convergence.
close_mosaic 10 Disables mosaic data augmentation in the last N epochs to stabilize training before completion. Setting to 0 disables this feature.
resume False Riprende l'allenamento dall'ultimo checkpoint salvato. Carica automaticamente i pesi del modello, lo stato dell'ottimizzatore e il conteggio delle epoche, continuando l'addestramento senza interruzioni.
amp True Enables Automatic Mixed Precision (AMP) training, reducing memory usage and possibly speeding up training with minimal impact on accuracy.
fraction 1.0 Specifica la frazione del dataset da utilizzare per l'addestramento. Consente l'addestramento su un sottoinsieme dell'intero set di dati, utile per gli esperimenti o quando le risorse sono limitate.
profile False Consente di profilare le velocità di ONNX e TensorRT durante l'addestramento, utile per ottimizzare la distribuzione del modello.
freeze None Freezes the first N layers of the model or specified layers by index, reducing the number of trainable parameters. Useful for fine-tuning or transfer learning.
lr0 0.01 Tasso di apprendimento iniziale (cioè SGD=1E-2, Adam=1E-3) . La regolazione di questo valore è fondamentale per il processo di ottimizzazione, in quanto influisce sulla velocità di aggiornamento dei pesi del modello.
lrf 0.01 Tasso di apprendimento finale come frazione del tasso iniziale = (lr0 * lrf), utilizzato insieme agli schedulatori per regolare il tasso di apprendimento nel tempo.
momentum 0.937 Momentum factor for SGD or beta1 for Adam optimizers, influencing the incorporation of past gradients in the current update.
weight_decay 0.0005 L2 regularization term, penalizing large weights to prevent overfitting.
warmup_epochs 3.0 Numero di epoche per il riscaldamento del tasso di apprendimento, aumentando gradualmente il tasso di apprendimento da un valore basso al tasso di apprendimento iniziale per stabilizzare l'allenamento all'inizio.
warmup_momentum 0.8 Slancio iniziale per la fase di riscaldamento, con regolazione graduale dello slancio impostato nel corso del periodo di riscaldamento.
warmup_bias_lr 0.1 Tasso di apprendimento dei parametri di polarizzazione durante la fase di riscaldamento, che aiuta a stabilizzare l'addestramento del modello nelle epoche iniziali.
box 7.5 Weight of the box loss component in the loss function, influencing how much emphasis is placed on accurately predicting bounding box coordinates.
cls 0.5 Peso della perdita di classificazione nella funzione di perdita totale, che influenza l'importanza della corretta previsione della classe rispetto agli altri componenti.
dfl 1.5 Peso della perdita focale della distribuzione, utilizzato in alcune versioni di YOLO per una classificazione a grana fine.
pose 12.0 Peso della perdita di posa nei modelli addestrati per la stima della posa, che influenza l'enfasi sulla previsione accurata dei punti chiave della posa.
kobj 2.0 Peso della perdita di oggettività dei punti chiave nei modelli di stima della posa, bilanciando la fiducia nel rilevamento con l'accuratezza della posa.
label_smoothing 0.0 L'applicazione di un'attenuazione delle etichette, che ammorbidisce le etichette dure in un mix di etichette di destinazione e di una distribuzione uniforme delle etichette, può migliorare la generalizzazione.
nbs 64 Dimensione nominale del lotto per la normalizzazione della perdita.
overlap_mask True Determines whether segmentation masks should overlap during training, applicable in instance segmentation tasks.
mask_ratio 4 Rapporto di downsample per le maschere di segmentazione, che influisce sulla risoluzione delle maschere utilizzate durante l'addestramento.
dropout 0.0 Tasso di abbandono per la regolarizzazione nei compiti di classificazione, per evitare l'overfitting attraverso l'omissione casuale di unità durante l'addestramento.
val True Abilita la convalida durante l'addestramento, consentendo una valutazione periodica delle prestazioni del modello su un set di dati separato.
plots False Genera e salva i grafici delle metriche di addestramento e di convalida, così come gli esempi di previsione, fornendo una visione delle prestazioni del modello e della progressione dell'apprendimento.

Nota sulle impostazioni delle dimensioni del batch

Il batch L'argomento può essere configurato in tre modi:

  • Fixed Batch Size: Imposta un valore intero (ad es, batch=16), specificando direttamente il numero di immagini per batch.
  • Modalità Auto (60% GPU Memoria): Usa batch=-1 per regolare automaticamente le dimensioni del batch per un utilizzo della memoria di CUDA pari a circa il 60%.
  • Modalità automatica con frazione di utilizzo: Imposta un valore di frazione (ad es, batch=0.70) per regolare la dimensione del batch in base alla frazione specificata dell'utilizzo della memoria di GPU .

Impostazioni di incremento e iperparametri

Augmentation techniques are essential for improving the robustness and performance of YOLO models by introducing variability into the training data, helping the model generalize better to unseen data. The following table outlines the purpose and effect of each augmentation argument:

Argomento Tipo Predefinito Gamma Descrizione
hsv_h float 0.015 0.0 - 1.0 Regola la tonalità dell'immagine di una frazione della ruota dei colori, introducendo la variabilità del colore. Aiuta il modello a generalizzarsi in diverse condizioni di illuminazione.
hsv_s float 0.7 0.0 - 1.0 Altera la saturazione dell'immagine di una frazione, influenzando l'intensità dei colori. Utile per simulare diverse condizioni ambientali.
hsv_v float 0.4 0.0 - 1.0 Modifica il valore (luminosità) dell'immagine di una frazione, aiutando il modello a funzionare bene in varie condizioni di luce.
degrees float 0.0 -180 - +180 Ruota l'immagine in modo casuale all'interno dell'intervallo di gradi specificato, migliorando la capacità del modello di riconoscere gli oggetti con diversi orientamenti.
translate float 0.1 0.0 - 1.0 Traduce l'immagine in orizzontale e in verticale di una frazione delle dimensioni dell'immagine, aiutando l'apprendimento del rilevamento di oggetti parzialmente visibili.
scale float 0.5 >=0.0 Ridimensiona l'immagine con un fattore di guadagno, simulando oggetti a distanze diverse dalla telecamera.
shear float 0.0 -180 - +180 Taglia l'immagine di un grado specifico, imitando l'effetto degli oggetti visti da diverse angolazioni.
perspective float 0.0 0.0 - 0.001 Applica una trasformazione prospettica casuale all'immagine, migliorando la capacità del modello di comprendere gli oggetti nello spazio 3D.
flipud float 0.0 0.0 - 1.0 Capovolge l'immagine con la probabilità specificata, aumentando la variabilità dei dati senza influire sulle caratteristiche dell'oggetto.
fliplr float 0.5 0.0 - 1.0 Capovolge l'immagine da sinistra a destra con la probabilità specificata, utile per l'apprendimento di oggetti simmetrici e per aumentare la diversità del set di dati.
bgr float 0.0 0.0 - 1.0 Inverte i canali dell'immagine da RGB a BGR con la probabilità specificata, utile per aumentare la robustezza di un ordine errato dei canali.
mosaic float 1.0 0.0 - 1.0 Combina quattro immagini di addestramento in una sola, simulando diverse composizioni della scena e interazioni di oggetti. Molto efficace per la comprensione di scene complesse.
mixup float 0.0 0.0 - 1.0 Mescola due immagini e le loro etichette, creando un'immagine composita. Migliora la capacità di generalizzazione del modello introducendo il rumore delle etichette e la variabilità visiva.
copy_paste float 0.0 0.0 - 1.0 Copia gli oggetti da un'immagine e li incolla su un'altra, utile per aumentare le istanze degli oggetti e imparare l'occlusione degli oggetti.
copy_paste_mode str flip - Copy-Paste augmentation method selection among the options of ("flip", "mixup").
auto_augment str randaugment - Applica automaticamente un criterio di incremento predefinito (randaugment, autoaugment, augmix), ottimizzando i compiti di classificazione attraverso la diversificazione delle caratteristiche visive.
erasing float 0.4 0.0 - 0.9 Cancella a caso una parte dell'immagine durante l'addestramento alla classificazione, incoraggiando il modello a concentrarsi su caratteristiche meno evidenti per il riconoscimento.
crop_fraction float 1.0 0.1 - 1.0 Ritaglia l'immagine di classificazione a una frazione delle sue dimensioni per enfatizzare le caratteristiche centrali e adattarsi alle scale degli oggetti, riducendo le distrazioni dello sfondo.

Queste impostazioni possono essere regolate per soddisfare i requisiti specifici del set di dati e del compito da svolgere. La sperimentazione di diversi valori può aiutare a trovare la strategia di incremento ottimale che porta alle migliori prestazioni del modello.

Info

Per maggiori informazioni sulle operazioni di addestramento di potenziamento, consulta la sezione di riferimento.

Registrazione

In training a YOLO11 model, you might find it valuable to keep track of the model's performance over time. This is where logging comes into play. Ultralytics' YOLO provides support for three types of loggers - Comet, ClearML, and TensorBoard.

Per utilizzare un logger, selezionalo dal menu a tendina nel frammento di codice qui sopra ed eseguilo. Il logger scelto verrà installato e inizializzato.

Comet

Comet è una piattaforma che consente agli scienziati dei dati e agli sviluppatori di monitorare, confrontare, spiegare e ottimizzare esperimenti e modelli. Offre funzionalità come metriche in tempo reale, differenze di codice e monitoraggio degli iperparametri.

Per utilizzare Comet:

Esempio

# pip install comet_ml
import comet_ml

comet_ml.init()

Ricordati di accedere al tuo account Comet sul loro sito web e di ottenere la tua chiave API. Dovrai aggiungerla alle variabili d'ambiente o allo script per registrare gli esperimenti.

ClearML

ClearML è una piattaforma open-source che automatizza il monitoraggio degli esperimenti e aiuta a condividere in modo efficiente le risorse. È stata progettata per aiutare i team a gestire, eseguire e riprodurre il loro lavoro di ML in modo più efficiente.

Per utilizzare ClearML:

Esempio

# pip install clearml
import clearml

clearml.browser_login()

Dopo aver eseguito questo script, dovrai accedere al tuo account ClearML sul browser e autenticare la tua sessione.

TensorBoard

TensorBoard is a visualization toolkit for TensorFlow. It allows you to visualize your TensorFlow graph, plot quantitative metrics about the execution of your graph, and show additional data like images that pass through it.

Per utilizzare TensorBoard in Google Colab:

Esempio

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Per utilizzare TensorBoard localmente, esegui il comando seguente e visualizza i risultati su http://localhost:6006/.

Esempio

tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

Questo caricherà TensorBoard e lo indirizzerà alla directory in cui sono salvati i registri di allenamento.

Dopo aver configurato il logger, puoi procedere con la formazione del modello. Tutte le metriche dell'addestramento verranno registrate automaticamente nella piattaforma scelta e potrai accedere a questi registri per monitorare le prestazioni del tuo modello nel tempo, confrontare modelli diversi e identificare le aree di miglioramento.

DOMANDE FREQUENTI

How do I train an object detection model using Ultralytics YOLO11?

To train an object detection model using Ultralytics YOLO11, you can either use the Python API or the CLI. Below is an example for both:

Esempio di formazione singolaGPU e CPU

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

Per maggiori dettagli, consulta la sezione Impostazioni del treno.

What are the key features of Ultralytics YOLO11's Train mode?

The key features of Ultralytics YOLO11's Train mode include:

  • Download automatico dei dataset: Scarica automaticamente i set di dati standard come COCO, VOC e ImageNet.
  • Supporto Multi-GPU : Scala la formazione su più GPU per un'elaborazione più veloce.
  • Configurazione degli iperparametri: Personalizza gli iperparametri attraverso i file YAML o gli argomenti di CLI .
  • Visualizzazione e monitoraggio: Tracciamento in tempo reale delle metriche di allenamento per una migliore comprensione.

Queste caratteristiche rendono l'allenamento efficiente e personalizzabile in base alle tue esigenze. Per maggiori dettagli, consulta la sezione Caratteristiche principali della modalità Allenamento.

How do I resume training from an interrupted session in Ultralytics YOLO11?

Per riprendere l'allenamento da una sessione interrotta, imposta il parametro resume argomento a True e specifica il percorso dell'ultimo checkpoint salvato.

Esempio di curriculum formativo

from ultralytics import YOLO

# Load the partially trained model
model = YOLO("path/to/last.pt")

# Resume training
results = model.train(resume=True)
yolo train resume model=path/to/last.pt

Per maggiori informazioni, consulta la sezione Riprendere le formazioni interrotte.

Can I train YOLO11 models on Apple M1 and M2 chips?

Yes, Ultralytics YOLO11 supports training on Apple M1 and M2 chips utilizing the Metal Performance Shaders (MPS) framework. Specify 'mps' as your training device.

MPS Esempio di formazione

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on M1/M2 chip
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

Per maggiori dettagli, consulta la sezione Formazione Apple M1 e M2 MPS .

Quali sono le impostazioni di formazione più comuni e come posso configurarle?

Ultralytics YOLO11 allows you to configure a variety of training settings such as batch size, learning rate, epochs, and more through arguments. Here's a brief overview:

Argomento Predefinito Descrizione
model None Percorso del file del modello per la formazione.
data None Percorso del file di configurazione del dataset (es, coco8.yaml).
epochs 100 Numero totale di epoche di allenamento.
batch 16 Dimensione del batch, regolabile in modalità intera o automatica.
imgsz 640 Dimensione dell'immagine target per la formazione.
device None Dispositivo/i di calcolo per l'addestramento come cpu, 0, 0,1, oppure mps.
save True Consente di salvare i checkpoint di formazione e i pesi finali del modello.

Per una guida approfondita sulle impostazioni di allenamento, consulta la sezione Impostazioni di allenamento.


📅 Created 11 months ago ✏️ Updated 9 days ago

Commenti