Zum Inhalt springen

Cloud-Training

Ultralytics Platform Cloud-Training bietet Training mit einem Klick auf Cloud-GPUs, wodurch das Modelltraining ohne komplexe Einrichtung zugänglich wird. Trainieren Sie YOLO-Modelle mit Echtzeit-Metrik-Streaming und automatischer Checkpoint-Speicherung.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Schulungsdialog

Starten Sie das Training über die Plattform-Benutzeroberfläche, indem Sie auf einer beliebigen Projektseite auf „Neues Modell “ klicken (oder auf einer Datensatzseite auf „Trainieren“ ). Der Trainingsdialog verfügt über zwei Registerkarten: „Cloud-Training “ und „Lokales Training“.

Ultralytics -Schulung Dialog Cloud-Registerkarte

Schritt 1: Basismodell auswählen

Wählen Sie aus offiziellen YOLO26-Modellen oder Ihren eigenen trainierten Modellen:

KategorieBeschreibung
OffiziellAlle 25 YOLO26-Modelle (5 Größen x 5 Aufgaben)
Ihre ModelleIhre fertigen Modelle für die Feinabstimmung

Offizielle Modelle sind nach Aufgabentyp (Erkennen, Segmentieren, Pose, OBB, Klassifizieren) mit Größen von Nano bis XL organisiert.

Schritt 2: Datensatz auswählen

Wählen Sie einen Datensatz zum Trainieren aus (siehe Datensätze):

OptionBeschreibung
OffiziellKuratierte Datensätze von Ultralytics
Ihre DatensätzeVon Ihnen hochgeladene Datensätze

Anforderungen an den Datensatz

Die Datensätze müssen in ready Status mit mindestens 1 Bild im Trainingssatz, 1 Bild im Validierungs- oder Testsatz und mindestens 1 beschriftetem Bild.

Aufgabeninkongruenz

Eine Warnung wegen einer Aufgabeninkongruenz wird angezeigt, wenn die Modellaufgabe (z. B. detect) nicht mit der Datensatzaufgabe (z. B. segment) übereinstimmt. Das Training schlägt fehl, wenn Sie mit inkongruenten Aufgaben fortfahren. Stellen Sie sicher, dass sowohl das Modell als auch der Datensatz denselben Aufgabentyp verwenden, wie in den Aufgabenanleitungen beschrieben.

Schritt 3: Parameter konfigurieren

Kern-Trainingsparameter festlegen:

ParameterBeschreibungStandard
EpochenAnzahl der Trainingsiterationen100
Batch-GrößeSamples pro Iteration16
BildgrößeEingabeauflösung (320/416/512/640/1280 Dropdown-Menü oder 32-4096 im YAML-Editor)640
LaufnameOptionaler Name für den TrainingslaufAuto

Schritt 4: Erweiterte Einstellungen (optional)

Erweitern Sie die erweiterten Einstellungen, um auf den vollständigen YAML-basierten Parametereditor mit über 40 nach Gruppen geordneten Trainingsparametern zuzugreifen (siehe Konfigurationsreferenz):

GruppeParameter
Lernratelr0, lrf, Momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OptimiererSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
VerlustgewichteBox, CLS, DFL, Pose, Kobj, Label_Smoothing
Farbverstärkunghsv_h, hsv_s, hsv_v
Geometrische Erweiterung.Grad, übersetzen, skalieren, scheren, Perspektive
Flip & Mix Augment.Flipud, Fliplr, Mosaik, Mixup, Kopieren_Einfügen
TrainingssteuerungGeduld, Samen, deterministisch, Verstärker, cos_lr, close_mosaic, save_period
DatensatzFraktion, Einfrieren, single_cls, rechteckig, multi_scale, Fortsetzen

Parameter sind aufgabenbezogen (z. B. copy_paste nur für segment anzeigen, pose/kobj nur für Posenaufgaben). A Geändert Das Symbol wird angezeigt, wenn die Werte von den Standardeinstellungen abweichen. Mit der Schaltfläche „Zurücksetzen“ können Sie alle Werte auf die Standardeinstellungen zurücksetzen.

Beispiel: Tuning-Erweiterung für kleine Datensätze

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Schritt 5: GPU auswählen GPU Registerkarte „Cloud“)

Wählen Sie Ihre GPU Ultralytics aus:

Ultralytics -Schulung Dialog Gpu und Kosten

GPUVRAMKosten/Stunde
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

GPU-Auswahl

  • RTX PRO 6000: 96 GB Blackwell-Generation, empfohlene Standardeinstellung für die meisten Aufgaben
  • A100 SXM: Erforderlich für große Losgrößen oder große Modelle
  • H100/H200: Maximale Leistung für zeitkritisches Training
  • B200: NVIDIA -Architektur für anspruchsvolle Workloads

Der Dialog zeigt Ihren aktuellen Kontostand und eine Schaltfläche „Aufladen“ an. Die geschätzten Kosten und die Dauer werden auf Grundlage Ihrer Konfiguration (Modellgröße, Datensatzbilder, Epochen, GPU ) berechnet.

Schritt 6: Mit dem Training beginnen

Klicken Sie auf Training starten, um Ihren Job zu starten. Die Plattform:

  1. Stellt eine GPU-Instanz bereit
  2. Lädt Ihren Datensatz herunter
  3. Beginnt das Training
  4. Streamt Metriken in Echtzeit

Ausbildungsjob-Lebenszyklus

Schulungsaufträge durchlaufen die folgenden Status:

StatusBeschreibung
AusstehendAuftrag übermittelt, warte auf GPU
BeginnGPU , Datensatz und Modell werden heruntergeladen
LaufenTraining läuft, Messwerte werden in Echtzeit übertragen
AbgeschlossenDie Schulung wurde erfolgreich abgeschlossen.
FehlgeschlagenTraining fehlgeschlagen (Details siehe Konsolenprotokolle)
AbgesagtDas Training wurde vom Benutzer abgesagt.

Kostenlose Credits

Neue Konten erhalten Anmelde-Gutschriften – 5 $ für private E-Mail-Adressen und 25 $ für geschäftliche E-Mail-Adressen. Überprüfen Sie Ihren Kontostand unter „Einstellungen“ > „Abrechnung“.

Fortschritt der Schulung Ultralytics mit Diagrammen

Training überwachen

Zeigen Sie den Trainingsfortschritt in Echtzeit auf der Registerkarte „Trainieren“ der Modellseite an:

Unterregisterkarte „Diagramme“

Ultralytics Modelltraining Live-Diagramme

MetrikBeschreibung
VerlustTrainings- und Validierungsverlust
mAPMittlere durchschnittliche Präzision
PräzisionKorrekte positive Vorhersagen
RecallErkannte Ground Truths

Konsolen-Unterregisterkarte

Live-Konsolenausgabe mit ANSI-Farbunterstützung, Fortschrittsbalken und Fehlererkennung.

System-Unterregisterkarte

GPU , Speicher, Temperatur, CPU und Festplattennutzung.

Checkpoints

Checkpoints werden automatisch gespeichert:

  • Jede Epoche: Neueste Gewichte gespeichert
  • Bestes Modell: Checkpoint mit höchstem mAP beibehalten
  • Endgültiges Modell: Gewichte nach Abschluss des Trainings

Training abbrechen

Klicken Sie auf der Modellseite auf „Training abbrechen“, um einen laufenden Auftrag zu beenden:

  • Die Recheninstanz wird beendet.
  • Guthaben wird nicht mehr berechnet
  • Bis zu diesem Zeitpunkt gespeicherte Checkpoints bleiben erhalten.

Remote-Training

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Trainieren Sie auf Ihrer eigenen Hardware, während Sie Metriken an die Plattform streamen.

Anforderung an die Paketversion

Für die Plattformintegration ist ultralytics>= 8.4.14 erforderlich. Niedrigere Versionen funktionieren NICHT mit der Plattform.

pip install -U ultralytics

API-Schlüssel einrichten

  1. Gehen Sie zu Settings > Profile (Abschnitt „API-Schlüssel“)
  2. Erstellen Sie einen neuen Schlüssel (oder die Plattform erstellt automatisch einen, wenn Sie die Registerkarte „Lokales Training“ öffnen).
  3. Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="your_api_key"

Training mit Streaming

Verwenden Sie den project und name Parameter zum Streamen von Metriken:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

Die Registerkarte „Lokale Schulung“ im Schulungsdialogfeld zeigt einen vorkonfigurierten Befehl mit Ihrem API-Schlüssel, ausgewählten Parametern und erweiterten Argumenten an.

Nutzung von Plattform-Datensätzen

Trainieren Sie mit Datensätzen, die auf der Plattform gespeichert sind, unter Verwendung der ul:// URI-Format:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn. Das Modell wird automatisch mit dem Datensatz auf der Plattform verknüpft (siehe Nutzung von Plattform-Datensätzen), oder Auto-Modus mit angegebener Auslastungsfraktion (

Abrechnung

Trainingskosten basieren auf der GPU-Nutzung:

Kostenvoranschlag

Vor Beginn des Trainings schätzt die Plattform die Gesamtkosten wie folgt:

  1. Schätzung der Sekunden pro Epoche anhand der Datensatzgröße, Modellkomplexität, Bildgröße, Batchgröße und GPU
  2. Berechnung der Gesamttrainingszeit durch Multiplikation der Sekunden pro Epoche mit der Anzahl der Epochen und anschließender Addition des Start-Overheads
  3. Berechnung der geschätzten Kosten aus der Gesamtzahl der Schulungsstunden multipliziert mit dem Stundensatz GPU

Faktoren, die die Kosten beeinflussen:

FaktorAuswirkung
DatensatzgrößeMehr Bilder = längere Trainingszeit (Ausgangswert: ~2,8 Sekunden Rechenzeit pro 1000 Bilder auf RTX 4090)
ModellgrößeGrößere Modelle (m, l, x) trainieren langsamer als (n, s).
Anzahl der EpochenDirekter Multiplikator für die Ausbildungszeit
BildgrößeGrößere Bildgrößen erhöhen den Rechenaufwand: 320px=0,25x, 640px=1,0x (Basiswert), 1280px=4,0x
Batch-GrößeGrößere Chargen sind effizienter (Charge 32 = ~0,85-fache Zeit, Charge 8 = ~1,2-fache Zeit im Vergleich zur Basislinie Charge 16).
GPUSchnellere GPUs verkürzen die Trainingszeit (z. B. H100 SXM = ~3,4-mal schneller als RTX 4090)
Startup-OverheadBis zu 5 Minuten für die Initialisierung, den Daten-Download und das Aufwärmen (abhängig von der Größe des Datensatzes)

Kostenbeispiele

Schätzungen

Die Kostenschätzungen sind ungefähre Angaben und hängen von vielen Faktoren ab. Der Trainingsdialog zeigt eine Echtzeit-Schätzung an, bevor Sie mit dem Training beginnen.

SzenarioGPUGeschätzte Kosten
500 Bilder, YOLO26n, 50 EpochenRTX 4090~0,50 $
1000 Bilder, YOLO26n, 100 EpochenRTX PRO 6000~5 $
5000 Bilder, YOLO26s, 100 EpochenH100 SXM~23 $

Abrechnungsablauf

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Abrechnungsablauf für Cloud-Schulungen:

  1. Schätzung: Kosten werden vor Beginn der Schulung berechnet
  2. Guthabenprüfung: Vor dem Start wird das verfügbare Guthaben überprüft.
  3. Zug: Job läuft auf ausgewählten Rechnern
  4. Gebühr: Die endgültigen Kosten basieren auf der tatsächlichen Laufzeit.

Verbraucherschutz

Die Abrechnung erfasst die tatsächliche Rechenleistung, einschließlich teilweise ausgeführter und abgebrochener Berechnungen.

Zahlungsmethoden

MethodeBeschreibung
KontostandVorgeladene Guthaben
Zahlung pro AuftragAbrechnung nach Auftragsabschluss

Mindestguthaben

Der Trainingsstart erfordert ein positives Guthaben und ausreichend Credits für die geschätzten Auftragskosten.

Trainingskosten anzeigen

Nach dem Training können Sie detaillierte Kosten im Tab Abrechnung einsehen:

  • Kostenaufschlüsselung pro Epoche
  • Gesamte GPU-Zeit
  • Kostenbericht herunterladen

Rechnungsdetails für die Ultralytics schulung

Trainingstipps

Die richtige Modellgröße wählen

ModellParameterAm besten geeignet für
YOLO26n2.4MEchtzeit, Edge-Geräte
YOLO26s9.5MAusgewogene Geschwindigkeit/Genauigkeit
YOLO26m20.4MHöhere Genauigkeit
YOLO26l24.8MProduktionsgenauigkeit
YOLO26x55.7MMaximale Genauigkeit

Trainingszeit optimieren

Kosteneinsparungsstrategien

  1. Fangen Sie klein an: Testen Sie mit 10 bis 20 Epochen auf einer kostengünstigen GPU Ihren Datensatz und Ihre Konfiguration zu überprüfen.
  2. Geeignete GPU verwenden: RTX PRO 6000 bewältigt die meisten Workloads gut.
  3. Datensatz validieren: Beheben Sie Probleme bei der Beschriftung, bevor Sie Geld für das Training ausgeben.
  4. Frühzeitig überwachen: Training abbrechen, wenn die Verluste stagnieren – Sie zahlen nur für die tatsächlich genutzte Rechenzeit.

Fehlerbehebung

ProblemLösung
Training bei 0% festgefahrenDatensatzformat prüfen, erneut versuchen
Nicht genügend ArbeitsspeicherBatch-Größe reduzieren oder größere GPU verwenden
Geringe GenauigkeitEpochen erhöhen, Datenqualität prüfen
Training langsamSchnellere GPU in Betracht ziehen
Fehler aufgrund einer AufgabeninkongruenzSicherstellen, dass Modell- und Datensatzaufgaben übereinstimmen

FAQ

Wie lange dauert das Training?

Die Trainingszeit hängt ab von:

  • Datensatzgröße
  • Modellgröße
  • Anzahl der Epochen
  • Ausgewählte GPU

Typische Zeiten (1000 Bilder, 100 Epochen):

ModellRTX PRO 6000A100
YOLO26n20 Min.20 Min.
YOLO26m40 Min.40 Min.
YOLO26x80 Min.80 Min.

Kann ich über Nacht trainieren?

Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ausreichend Guthaben für das epochenbasierte Training verfügt.

Was passiert, wenn meine Credits aufgebraucht sind?

Das Training pausiert am Ende der aktuellen Epoche. Ihr Checkpoint wird gespeichert, und Sie können nach dem Hinzufügen von Guthaben fortfahren.

Kann ich benutzerdefinierte Trainingsargumente verwenden?

Ja, erweitern Sie den Abschnitt „Erweiterte Einstellungen“ im Trainingsdialog, um auf einen YAML-Editor mit über 40 konfigurierbaren Parametern zuzugreifen. Nicht standardmäßige Werte sind sowohl in Cloud- als auch in lokalen Trainingsbefehlen enthalten.

Kann ich von einer Datensatzseite aus trainieren?

Ja, die Schaltfläche „Trainieren“ auf den Datensatzseiten öffnet den Trainingsdialog, wobei der Datensatz bereits ausgewählt und gesperrt ist. Anschließend wählen Sie ein Projekt und ein Modell aus, um mit dem Training zu beginnen.

Trainingsparameter-Referenz

ParameterTypStandardBereichBeschreibung
epochsint1001–10000Anzahl der Trainingsepochen
batchint161-512Batch-Größe
imgszint64032-4096Eingabebildgröße
patienceint1001–1000Patience für Early Stopping
seedint00-2147483647Zufallszahl für Reproduzierbarkeit
deterministicboolWahr-Deterministischer Trainingsmodus
ampboolWahr-Automatische gemischte Genauigkeit
close_mosaicint100–50Mosaik in den letzten N Epochen deaktivieren
save_periodint-1-1-100Speichere Checkpoint alle N Epochen
workersint80–64Dataloader-Worker
cacheauswählenfalschRAM/Disk/falschCache-Bilder
ParameterTypStandardBereichBeschreibung
lr0float0.010,0001–0,1Anfängliche Lernrate
lrffloat0.010,01–1,0Finaler LR-Faktor
momentumfloat0.9370,6–0,98SGD-Momentum
weight_decayfloat0.00050,0–0,001L2-Regularisierung
warmup_epochsfloat3.00–5Warmup-Epochen
warmup_momentumfloat0.80,5–0,95Aufwärmphase
warmup_bias_lrfloat0.10,0–0,2Aufwärm-Bias LR
cos_lrboolFalsch-Cosine-LR-Scheduler
ParameterTypStandardBereichBeschreibung
hsv_hfloat0.0150,0–0,1HSV-Farbton-Augmentierung
hsv_sfloat0.70.0-1.0HSV-Sättigung
hsv_vfloat0.40.0-1.0HSV-Wert
degreesfloat0.0-45-45Rotationsgrad
translatefloat0.10.0-1.0Translationsfraktion
scalefloat0.50.0-1.0Skalierungsfaktor
shearfloat0.0-10-10Schergrade
perspectivefloat0.00,0–0,001Perspektivische Transformation
fliplrfloat0.50.0-1.0Horizontale Spiegelungswahrscheinlichkeit
flipudfloat0.00.0-1.0Vertikale Spiegelungswahrscheinlichkeit
mosaicfloat1.00.0-1.0Mosaic-Augmentierung
mixupfloat0.00.0-1.0MixUp-Augmentierung
copy_pastefloat0.00.0-1.0Copy-Paste (segment)
ParameterTypStandardBereichBeschreibung
fractionfloat1.00,1–1,0Zu verwendender Teil des Datensatzes
freezeintnull0–100Anzahl der zu gefrierenden Schichten
single_clsboolFalsch-Behandeln Sie alle Klassen als eine Klasse.
rectboolFalsch-Rechteckiges Training
multi_scalefloat0.00.0-1.0Mehrstufiger Trainingsbereich
valboolWahr-Validierung während des Trainings durchführen
resumeboolFalsch-Training vom Checkpoint fortsetzen
WertBeschreibung
autoAutomatische Auswahl (Standard)
SGDStochastischer Gradientenabstieg
MuSGDMuon SGD
AdamAdam-Optimierer
AdamWAdam mit Gewichtsabnahme
NAdamNAdam-Optimierer
RAdamRAdam-Optimierer
RMSPropRMSProp-Optimierer
AdamaxAdamax-Optimierer
ParameterTypStandardBereichBeschreibung
boxfloat7.51–50Gewicht des Box-Verlusts
clsfloat0.50,2–4Klassifizierungsverlustgewicht
dflfloat1.50,4–6Verteilungsfokussverlust
posefloat12.01–50Pose-Gewichtsverlust (nur Pose)
kobjfloat1.00,5–10Schlüsselpunkt-Objektivität (Pose)
label_smoothingfloat0.00,0–0,1Label-Glättungsfaktor

Aufgabenspezifische Parameter

Einige Parameter gelten nur für bestimmte Aufgaben:

  • Nur Erkennungsaufgaben (detect, segment, Pose, OBB – nicht classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Nur Segment: copy_paste
  • Nur posieren: pose (Verlustgewicht), kobj (Keypoint-Objekthaftigkeit)


📅 Erstellt vor 1 Monat ✏️ Aktualisiert vor 5 Tagen
glenn-jochersergiuwaxmannLaughing-q

Kommentare