Zum Inhalt springen

Cloud-Training

Ultralytics Platform Cloud-Training bietet Training mit einem Klick auf Cloud-GPUs, wodurch das Modelltraining ohne komplexe Einrichtung zugänglich wird. Trainieren Sie YOLO-Modelle mit Echtzeit-Metrik-Streaming und automatischer Checkpoint-Speicherung.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Schulungsdialog

Starten Sie das Training über die Plattform-Benutzeroberfläche, indem Sie auf einer beliebigen Projektseite auf „Neues Modell “ klicken (oder auf einer Datensatzseite auf „Trainieren“ ). Der Trainingsdialog verfügt über zwei Registerkarten: „Cloud-Training “ und „Lokales Training“.

Ultralytics -Schulung Dialog Cloud-Registerkarte

Schritt 1: Basismodell auswählen

Wählen Sie aus offiziellen YOLO26-Modellen oder Ihren eigenen trainierten Modellen:

KategorieBeschreibung
OffiziellAlle 25 YOLO26-Modelle (5 Größen x 5 Aufgaben)
Ihre ModelleIhre fertigen Modelle für die Feinabstimmung

Offizielle Modelle sind nach Aufgabentyp (Erkennen, Segmentieren, Pose, OBB, Klassifizieren) mit Größen von Nano bis XL organisiert.

Schritt 2: Datensatz auswählen

Wählen Sie einen Datensatz zum Trainieren (siehe Datensätze):

OptionBeschreibung
OffiziellKuratierte Datensätze von Ultralytics
Ihre DatensätzeVon Ihnen hochgeladene Datensätze

Datensatzanforderungen

Datensätze müssen in ready Status mit mindestens 1 Bild im Trainingssatz, 1 Bild im Validierungs- oder Testsatz und mindestens 1 beschriftetem Bild.

Aufgabeninkongruenz

Eine Warnung bei Aufgabenkonflikt erscheint, wenn die Modellaufgabe (z.B. detect) nicht mit der Datensatzaufgabe (z.B. segment) übereinstimmt. Das Training schlägt fehl, wenn Sie mit nicht übereinstimmenden Aufgaben fortfahren. Stellen Sie sicher, dass sowohl Modell als auch Datensatz denselben Aufgabentyp verwenden, wie in den Aufgabenleitfäden beschrieben.

Schritt 3: Parameter konfigurieren

Kern-Trainingsparameter festlegen:

ParameterBeschreibungStandard
EpochenAnzahl der Trainingsiterationen100
Batch-GrößeSamples pro Iteration16
BildgrößeEingabeauflösung (320/416/512/640/1280 Dropdown-Menü oder 32-4096 im YAML-Editor)640
LaufnameOptionaler Name für den TrainingslaufAuto

Schritt 4: Erweiterte Einstellungen (optional)

Erweitern Sie die erweiterten Einstellungen, um auf den vollständigen YAML-basierten Parametereditor mit über 40 nach Gruppen geordneten Trainingsparametern zuzugreifen (siehe Konfigurationsreferenz):

GruppeParameter
Lernratelr0, lrf, Momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OptimiererSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
VerlustgewichteBox, Cls, DFL, Pose, Kobj, Label-Smoothing
Farbaugmentierunghsv_h, hsv_s, hsv_v
Geometrische Erweiterung.Grad, verschieben, skalieren, scheren, Perspektive
Flip & Mix Augment.Flipud, Fliplr, Mosaik, Mixup, Kopieren_Einfügen
TrainingssteuerungGeduld, Samen, deterministisch, Verstärker, cos_lr, close_mosaic, save_period
DatensatzFraktion, Einfrieren, single_cls, rechteckig, multi_scale, Fortsetzen

Parameter sind aufgabenbezogen (z. B. copy_paste nur für segment anzeigen, pose/kobj nur für Posenaufgaben). A Geändert Ein Badge erscheint, wenn Werte von den Standardeinstellungen abweichen, und Sie können alle mit der Reset-Taste auf die Standardwerte zurücksetzen.

Beispiel: Tuning-Erweiterung für kleine Datensätze

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Schritt 5: GPU auswählen GPU Registerkarte „Cloud“)

Wählen Sie Ihre GPU aus der Ultralytics Cloud:

Ultralytics -Schulung Dialog Gpu und Kosten

GPUGenerationVRAMKosten/StundeAm besten geeignet für
RTX 2000 AdaAda16 GB$0.24Kleine Datensätze, zum Testen
RTX A4500Ampere20 GB$0.25Kleine bis mittlere Datensätze
RTX 4000 AdaAda20 GB$0.26Mittlere Datensätze
RTX A5000Ampere24 GB$0.27Mittlere Datensätze
L4Ada24 GB$0.39Für Inferenz optimiert
A40Ampere48 GB$0.40Größere Batch-Größen
RTX 3090Ampere24 GB$0.46Allgemeines Training
RTX A6000Ampere48 GB$0.49Große Modelle
RTX PRO 4500Blackwell32 GB$0.54Hervorragendes Preis-Leistungs-Verhältnis
RTX 4090Ada24 GB$0.59Bestes Preis-Leistungs-Verhältnis
RTX 6000 AdaAda48 GB$0.77Training mit großen Batches
L40SAda48 GB$0.86Training mit großen Batches
RTX 5090Blackwell32 GB$0.89Neueste Consumer-Generation
L40Ada48 GB$0.99Große Modelle
A100 PCIeAmpere80 GB$1.39Produktionstraining
A100 SXMAmpere80 GB$1.49Produktionstraining
RTX PRO 6000Blackwell96 GB$1.69Empfohlener Standard
H100 PCIeHopper80 GB$2.39Hochleistungs-Training
H100 SXMHopper80 GB$2.69Schnellstes Training
H100 NVLHopper94 GB$3.07Maximale Leistung
H200 NVLHopper143 GB$3.39Maximaler Speicher (Pro+)
H200 SXMHopper141 GB$3.59Maximale Leistung (Pro+)
B200Blackwell180 GB$4.99Größte Modelle (Pro+)

GPU-Auswahl

  • RTX PRO 6000: 96 GB Blackwell-Generation, empfohlener Standard für die meisten Aufgaben.
  • A100 SXM: Erforderlich für große Batch-Größen oder große Modelle
  • H100/H200: Maximale Leistung für zeitkritisches Training (H200 erfordert Pro oder Enterprise)
  • B200: NVIDIA Blackwell-Architektur für hochmoderne Workloads (erfordert Pro oder Enterprise)

Der Dialog zeigt Ihren aktuellen Kontostand und eine Schaltfläche „Aufladen“ an. Die geschätzten Kosten und die Dauer werden auf Grundlage Ihrer Konfiguration (Modellgröße, Datensatzbilder, Epochen, GPU ) berechnet.

Schritt 6: Mit dem Training beginnen

Klicken Sie auf Training starten, um Ihren Job zu starten. Die Plattform:

  1. Stellt eine GPU-Instanz bereit
  2. Lädt Ihren Datensatz herunter
  3. Beginnt das Training
  4. Streamt Metriken in Echtzeit

Ausbildungsjob-Lebenszyklus

Schulungsaufträge durchlaufen die folgenden Status:

StatusBeschreibung
AusstehendAuftrag übermittelt, warte auf GPU
BeginnGPU , Datensatz und Modell werden heruntergeladen
LaufenTraining läuft, Messwerte werden in Echtzeit übertragen
AbgeschlossenDie Schulung wurde erfolgreich abgeschlossen.
FehlgeschlagenTraining fehlgeschlagen (Details siehe Konsolenprotokolle)
AbgebrochenDas Training wurde vom Benutzer abgesagt.

Kostenlose Credits

Neue Konten erhalten Anmelde-Gutschriften – 5 $ für private E-Mail-Adressen und 25 $ für geschäftliche E-Mail-Adressen. Überprüfen Sie Ihren Kontostand unter „Einstellungen“ > „Abrechnung“.

Fortschritt der Schulung Ultralytics mit Diagrammen

Training überwachen

Zeigen Sie den Trainingsfortschritt in Echtzeit auf der Registerkarte „Trainieren“ der Modellseite an:

Diagramm-Unterregisterkarte

Ultralytics Modelltraining Live-Diagramme

MetrikBeschreibung
VerlustTrainings- und Validierungsverlust
mAPMittlere durchschnittliche Präzision
PräzisionKorrekte positive Vorhersagen
RecallErkannte Ground Truths

Konsolen-Unterregisterkarte

Live-Konsolenausgabe mit ANSI-Farbunterstützung, Fortschrittsbalken und Fehlererkennung.

System-Unterregisterkarte

GPU , Speicher, Temperatur, CPU und Festplattennutzung.

Checkpoints

Checkpoints werden automatisch gespeichert:

  • Jede Epoche: Neueste Gewichte gespeichert
  • Bestes Modell: Checkpoint mit höchstem mAP beibehalten
  • Endgültiges Modell: Gewichte nach Abschluss des Trainings

Training abbrechen

Klicken Sie auf der Modellseite auf Training abbrechen, um einen laufenden Job zu beenden:

  • Die Recheninstanz wird beendet.
  • Guthaben wird nicht mehr berechnet
  • Bis zu diesem Zeitpunkt gespeicherte Checkpoints bleiben erhalten

Remote-Training

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Trainieren Sie auf Ihrer eigenen Hardware, während Sie Metriken an die Plattform streamen.

Anforderung an die Paketversion

Für die Plattformintegration ist ultralytics>=8.4.14 erforderlich. Niedrigere Versionen funktionieren NICHT mit der Plattform.

pip install -U ultralytics

API-Schlüssel einrichten

  1. Gehen Sie zu Settings > Profile (Abschnitt API-Schlüssel)
  2. Erstellen Sie einen neuen Schlüssel (oder die Plattform erstellt automatisch einen, wenn Sie den Tab „Lokales Training“ öffnen)
  3. Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="YOUR_API_KEY"

Training mit Streaming

Verwenden Sie den project und name Parameter zum Streamen von Metriken:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

Die Registerkarte „Lokale Schulung“ im Schulungsdialogfeld zeigt einen vorkonfigurierten Befehl mit Ihrem API-Schlüssel, ausgewählten Parametern und erweiterten Argumenten an.

Nutzung von Plattform-Datensätzen

Trainieren Sie mit Datensätzen, die auf der Plattform gespeichert sind, unter Verwendung der ul:// URI-Format:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn. Das Modell wird automatisch mit dem Datensatz auf der Plattform verknüpft (siehe Nutzung von Plattform-Datensätzen), oder Auto-Modus mit angegebener Auslastungsfraktion (

Abrechnung

Trainingskosten basieren auf der GPU-Nutzung:

Kostenvoranschlag

Bevor das Training beginnt, schätzt die Plattform die Gesamtkosten durch:

  1. Schätzung der Sekunden pro Epoche anhand von Datensatzgröße, Modellkomplexität, Bildgröße, Batch-Größe und GPU-Geschwindigkeit
  2. Berechnung der gesamten Trainingszeit durch Multiplikation der Sekunden pro Epoche mit der Anzahl der Epochen und anschließendes Hinzufügen des Start-Overheads
  3. Berechnung der geschätzten Kosten aus der Gesamtzahl der Trainingsstunden multipliziert mit dem Stundensatz der GPU

Faktoren, die die Kosten beeinflussen:

FaktorAuswirkung
DatensatzgrößeMehr Bilder = längere Trainingszeit (Ausgangswert: ~2,8 Sekunden Rechenzeit pro 1000 Bilder auf RTX 4090)
ModellgrößeGrößere Modelle (m, l, x) trainieren langsamer als (n, s).
Anzahl der EpochenDirekter Multiplikator für die Ausbildungszeit
BildgrößeGrößere Bildgrößen erhöhen den Rechenaufwand: 320px=0,25x, 640px=1,0x (Basiswert), 1280px=4,0x
Batch-GrößeGrößere Chargen sind effizienter (Charge 32 = ~0,85-fache Zeit, Charge 8 = ~1,2-fache Zeit im Vergleich zur Basislinie Charge 16).
GPUSchnellere GPUs verkürzen die Trainingszeit (z. B. H100 SXM = ~3,4-mal schneller als RTX 4090)
Startup-OverheadBis zu 5 Minuten für die Initialisierung, den Daten-Download und das Aufwärmen (abhängig von der Größe des Datensatzes)

Kostenbeispiele

Schätzungen

Kostenkalkulationen sind Schätzwerte und hängen von vielen Faktoren ab. Der Trainingsdialog zeigt eine Echtzeit-Schätzung an, bevor Sie das Training starten.

SzenarioGPUGeschätzte Kosten
500 Bilder, YOLO26n, 50 EpochenRTX 4090~0,50 $
1000 Bilder, YOLO26n, 100 EpochenRTX PRO 6000~5 $
5000 Bilder, YOLO26s, 100 EpochenH100 SXM~23 $

Abrechnungsfluss

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Abrechnungsprozess für Cloud-Training:

  1. Schätzung: Kosten werden vor Beginn der Schulung berechnet
  2. Guthabenprüfung: Verfügbare Credits werden vor dem Start geprüft
  3. Trainieren: Der Job läuft auf dem ausgewählten Compute.
  4. Kosten: Die endgültigen Kosten basieren auf der tatsächlichen Laufzeit

Verbraucherschutz

Die Abrechnung erfasst die tatsächliche Computenutzung, einschließlich abgebrochener Teilausführungen. Für fehlgeschlagene Trainingsläufe werden Ihnen niemals Kosten berechnet.

Abrechnung nach Job-Status

StatusBerechnet?
AbgeschlossenJa – tatsächlich genutzte GPU
AbgebrochenJa – GPU vom Start bis zur Abbruch
FehlgeschlagenNein – fehlgeschlagene Läufe werden nicht berechnet
FestgefahrenTeilweise – es wird nur die tatsächliche Schulungszeit in Rechnung gestellt

Keine Kosten bei Fehlern

Sollte ein Trainingslauf aufgrund eines Konfigurationsfehlers, eines Speicherengpasses oder eines anderen Fehlers fehlschlagen, fallen für Sie keine Kosten an. Es wird nur die erfolgreiche Rechenzeit in Rechnung gestellt. Blockierte Jobs (keine Aktivität seit mehr als 4 Stunden) werden automatisch beendet und nur für die Zeit abgerechnet, in der die GPU aktiv trainiert GPU , nicht für die Leerlaufzeit.

Zahlungsmethoden

MethodeBeschreibung
KontostandVorgeladene Guthaben
Zahlung pro AuftragAbrechnung nach Auftragsabschluss

Mindestguthaben

Der Trainingsstart erfordert ein positives Guthaben und ausreichend Credits für die geschätzten Auftragskosten.

Trainingskosten anzeigen

Nach dem Training können Sie detaillierte Kosten im Tab Abrechnung einsehen:

  • Kostenaufschlüsselung pro Epoche
  • Gesamte GPU-Zeit
  • Kostenbericht herunterladen

Rechnungsdetails für die Ultralytics schulung

Trainingstipps

Die richtige Modellgröße wählen

ModellParameterAm besten geeignet für
YOLO26n2.4MEchtzeit, Edge-Geräte
YOLO26s9.5MAusgewogene Geschwindigkeit/Genauigkeit
YOLO26m20.4MHöhere Genauigkeit
YOLO26l24.8MProduktionsgenauigkeit
YOLO26x55.7MMaximale Genauigkeit

Trainingszeit optimieren

Strategien zur Kosteneinsparung

  1. Klein anfangen: Testen Sie mit 10-20 Epochen auf einer preisgünstigen GPU, um zu überprüfen, ob Ihr Dataset und Ihre Konfiguration funktionieren.
  2. Geeignete GPU verwenden: Die RTX PRO 6000 bewältigt die meisten Arbeitslasten gut.
  3. Datensatz validieren: Beheben Sie Beschriftungsprobleme, bevor Sie in das Training investieren.
  4. Frühzeitig überwachen: Training abbrechen, wenn der Verlust stagniert — Sie zahlen nur für die genutzte Rechenzeit

Fehlerbehebung

ProblemLösung
Training bei 0% festgefahrenDatensatzformat prüfen, erneut versuchen
Nicht genügend ArbeitsspeicherBatch-Größe reduzieren oder größere GPU verwenden
Geringe GenauigkeitEpochen erhöhen, Datenqualität prüfen
Training langsamSchnellere GPU in Betracht ziehen
Fehler aufgrund einer AufgabeninkongruenzSicherstellen, dass Modell- und Datensatzaufgaben übereinstimmen

FAQ

Wie lange dauert das Training?

Die Trainingszeit hängt ab von:

  • Datensatzgröße
  • Modellgröße
  • Anzahl der Epochen
  • Ausgewählte GPU

Typische Zeiten (1000 Bilder, 100 Epochen):

ModellRTX PRO 6000A100 SXM
YOLO26n~20 Minutenca. 15 Min.
YOLO26mca. 40 Min.ca. 30 Min.
YOLO26xca. 80 Min.ca. 60 Min.

Ungefähre Zeiten

Die Trainingszeiten sind ungefähre Angaben und hängen von der Komplexität des Datensatzes, den Augmentierungseinstellungen und der Batchgröße ab. Für genauere Vorhersagen nutzen Sie die Kostenschätzung im Trainingsdialog.

Kann ich über Nacht trainieren?

Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ausreichend Guthaben für das epochenbasierte Training verfügt.

Was passiert, wenn meine Credits aufgebraucht sind?

Wenn Ihr Guthaben während eines Trainingslaufs auf null sinkt, wird das Training bis zum Ende fortgesetzt und Ihr Guthaben wird negativ. Dadurch wird sichergestellt, dass Ihr Trainingsauftrag niemals mitten im Lauf unterbrochen wird.

Nach Abschluss des Trainings müssen Sie Guthaben hinzufügen, um Ihr Konto wieder ins Positive zu bringen, bevor Sie neue Trainingsjobs starten können. Ihr fertiges Modell, Checkpoints und alle Trainingsartefakte bleiben unabhängig vom Kontostand vollständig erhalten.

Negativer Saldo

Ein negatives Guthaben verhindert lediglich das Starten neuer Trainingsaufträge. Bestehende Bereitstellungen und andere Plattformfunktionen funktionieren weiterhin normal. Fügen Sie Guthaben über Einstellungen > Abrechnung hinzu oder aktivieren Sie die automatische Aufladung, um Unterbrechungen zu vermeiden.

Was passiert, wenn meine Schulung teurer wird als veranschlagt?

Kostenkalkulationen sind Schätzwerte — die tatsächliche Trainingszeit kann aufgrund von Faktoren wie Datenladegeschwindigkeit, GPU-Aufwärmphase und Modellkonvergenzverhalten variieren. Wenn die tatsächlichen Kosten die Schätzung überschreiten, kann Ihr Guthaben negativ werden (siehe oben). Die Plattform stoppt das Training nicht basierend auf der Schätzung.

Zur Kostenkontrolle:

  • Verfolgen Sie den Trainingsfortschritt in Echtzeit und brechen Sie das Training bei Bedarf vorzeitig ab
  • Aktivieren Sie die automatische Aufladung, um Ihr Guthaben automatisch aufzufüllen
  • Beginnen Sie mit kürzeren Durchläufen (weniger Epochen), um die Erwartungen abzustimmen

Kann ich benutzerdefinierte Trainingsargumente verwenden?

Ja, erweitern Sie den Abschnitt „Erweiterte Einstellungen“ im Trainingsdialog, um auf einen YAML-Editor mit über 40 konfigurierbaren Parametern zuzugreifen. Nicht standardmäßige Werte sind sowohl in Cloud- als auch in lokalen Trainingsbefehlen enthalten.

Der YAML-Editor unterstützt zudem das Importieren von Konfigurationen aus früheren Trainingsläufen:

  • Aus bestehendem Modell kopieren: Auf der Seite eines beliebigen abgeschlossenen Modells befindet sich auf der Karte „Trainingskonfiguration“ eine Schaltfläche Als JSON kopieren. Kopieren Sie das JSON und fügen Sie es direkt in den YAML-Editor ein – dieser erkennt das JSON-Format automatisch und importiert alle Parameter.
  • YAML oder JSON einfügen: Fügen Sie eine beliebige gültige YAML- oder JSON-Trainingskonfiguration in den Editor ein. Parameter werden automatisch validiert, wobei Werte außerhalb des Bereichs begrenzt und Warnungen angezeigt werden.
  • Dateien ziehen und ablegen: Ziehen Sie eine .yaml oder .json Datei direkt in den Editor einfügen, um deren Parameter zu importieren.

Ultralytics -Schulung – Dialogfeld „Schulungskonfiguration“ kopieren (JSON)

Dadurch lassen sich frühere Trainingskonfigurationen leicht reproduzieren oder weiterentwickeln, ohne dass jeder Parameter manuell erneut eingegeben werden muss.

Kann ich von einer Datensatzseite aus trainieren?

Ja, die Schaltfläche „Trainieren“ auf den Datensatzseiten öffnet den Trainingsdialog, wobei der Datensatz bereits ausgewählt und gesperrt ist. Anschließend wählen Sie ein Projekt und ein Modell aus, um mit dem Training zu beginnen.

Trainingsparameter-Referenz

ParameterTypStandardBereichBeschreibung
epochsint1001-10000Anzahl der Trainingsepochen
batchint161-512Batch-Größe
imgszint64032-4096Eingabebildgröße
patienceint1001-1000Patience für Early Stopping
seedint00-2147483647Zufallszahl für Reproduzierbarkeit
deterministicboolWahr-Deterministischer Trainingsmodus
ampboolWahr-Automatische gemischte Präzision
close_mosaicint100-50Mosaik in den letzten N Epochen deaktivieren
save_periodint-1-1-100Speichere Checkpoint alle N Epochen
workersint80-64Dataloader-Worker
cacheauswählenfalschRAM/Disk/falschBilder cachen
ParameterTypStandardBereichBeschreibung
lr0float0.010.0001-0.1Anfängliche Lernrate
lrffloat0.010.01-1.0Finaler LR-Faktor
momentumfloat0.9370.6-0.98SGD-Momentum
weight_decayfloat0.00050.0-0.001L2-Regularisierung
warmup_epochsfloat3.00-5Warmup-Epochen
warmup_momentumfloat0.80.5-0.95Aufwärmphase
warmup_bias_lrfloat0.10.0-0.2Aufwärm-Bias LR
cos_lrboolFalsch-Cosine-LR-Scheduler
ParameterTypStandardBereichBeschreibung
hsv_hfloat0.0150.0-0.1HSV-Farbton-Augmentierung
hsv_sfloat0.70.0-1.0HSV-Sättigung
hsv_vfloat0.40.0-1.0HSV-Wert
degreesfloat0.0-45-45Rotationsgrad
translatefloat0.10.0-1.0Translationsfraktion
scalefloat0.50.0-1.0Skalierungsfaktor
shearfloat0.0-10-10Schergrade
perspectivefloat0.00.0-0.001Perspektivische Transformation
fliplrfloat0.50.0-1.0Horizontale Spiegelungswahrscheinlichkeit
flipudfloat0.00.0-1.0Vertikale Spiegelungswahrscheinlichkeit
mosaicfloat1.00.0-1.0Mosaic-Augmentierung
mixupfloat0.00.0-1.0MixUp-Augmentierung
copy_pastefloat0.00.0-1.0Copy-Paste (segment)
ParameterTypStandardBereichBeschreibung
fractionfloat1.00.1-1.0Zu verwendender Teil des Datensatzes
freezeintnull0-100Anzahl der zu gefrierenden Schichten
single_clsboolFalsch-Behandeln Sie alle Klassen als eine Klasse.
rectboolFalsch-Rechteckiges Training
multi_scalefloat0.00.0-1.0Mehrstufiger Trainingsbereich
valboolWahr-Validierung während des Trainings durchführen
resumeboolFalsch-Training vom Checkpoint fortsetzen
WertBeschreibung
autoAutomatische Auswahl (Standard)
SGDStochastischer Gradientenabstieg
MuSGDMuon SGD
AdamAdam-Optimierer
AdamWAdam mit Gewichtsabnahme
NAdamNAdam-Optimierer
RAdamRAdam-Optimierer
RMSPropRMSProp-Optimierer
AdamaxAdamax-Optimierer
ParameterTypStandardBereichBeschreibung
boxfloat7.51-50Gewicht des Box-Verlusts
clsfloat0.50.2-4Klassifikations-Loss-Gewicht
dflfloat1.50.4-6Verteilungs-Focal-Loss
posefloat12.01-50Pose-Gewichtsverlust (nur Pose)
kobjfloat1.00.5-10Schlüsselpunkt-Objektivität (Pose)
label_smoothingfloat0.00.0-0.1Label-Glättungsfaktor

Aufgabenspezifische Parameter

Einige Parameter gelten nur für bestimmte Aufgaben:

  • Nur Detektionsaufgaben (detect, segment, pose, obb — nicht classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Nur Segment: copy_paste
  • Nur posieren: pose (Verlustgewicht), kobj (Keypoint-Objekthaftigkeit)


📅 Erstellt vor 2 Monaten ✏️ Aktualisiert vor 11 Tagen
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

Kommentare