Zum Inhalt springen

Cloud-Training

Ultralytics Platform Cloud-Training bietet Training mit einem Klick auf Cloud-GPUs, wodurch das Modelltraining ohne komplexe Einrichtung zugänglich wird. Trainieren Sie YOLO-Modelle mit Echtzeit-Metrik-Streaming und automatischer Checkpoint-Speicherung.

Training über die UI

Starten Sie das Cloud-Training direkt von der Plattform aus:

  1. Navigieren Sie zu Ihrem Projekt
  2. Klicken Sie auf Modell trainieren
  3. Trainingsparameter konfigurieren
  4. Klicken Sie auf Training starten

Schritt 1: Datensatz auswählen

Wählen Sie einen Datensatz aus Ihren Uploads:

OptionBeschreibung
Ihre DatensätzeVon Ihnen hochgeladene Datensätze
Öffentliche DatensätzeÖffentliche Datensätze aus Explore

Schritt 2: Modell konfigurieren

Basismodell und Parameter auswählen:

ParameterBeschreibungStandard
ModellBasisarchitektur (YOLO26n, s, m, l, x)YOLO26n
EpochenAnzahl der Trainingsiterationen100
BildgrößeEingangsauflösung640
Batch-GrößeSamples pro IterationAuto

Schritt 3: GPU auswählen

Wählen Sie Ihre Rechenressourcen:

StufeGPUVRAMPreis/StundeAm besten geeignet für
BudgetRTX A20006 GB$0.12Kleine Datensätze, Testen
BudgetRTX 308010 GB$0.25Mittlere Datensätze
BudgetRTX 3080 Ti12 GB$0.30Mittlere Datensätze
BudgetA3024 GB$0.44Größere Losgrößen
MitteRTX 409024 GB$0.60Hervorragendes Preis-Leistungs-Verhältnis
MitteA600048 GB$0.90Große Modelle
MitteL424 GB$0.54Optimierte Schlussfolgerung
MitteL40S48 GB$1.72Großes Batch-Training
ProA100 40GB40 GB$2.78Produktionsschulung
ProA100 80GB80 GB$3.44Sehr große Modelle
ProH10080 GB$5.38Schnellstes Training
EnterpriseH200141 GB$5.38Maximale Leistung
EnterpriseB200192 GB$10.38Größte Modelle
UltralyticsRTX PRO 600048 GB$3.68Ultralytics

GPU-Auswahl

  • RTX 4090: Bestes Preis-Leistungs-Verhältnis für die meisten Aufgaben mit 0,60 $/Stunde
  • A100 80GB: Erforderlich für große Batch-Größen oder umfangreiche Modelle
  • H100/H200: Maximale Leistung für zeitkritisches Training
  • B200: NVIDIA -Architektur für anspruchsvolle Workloads

Schritt 4: Training starten

Klicken Sie auf Training starten, um Ihren Job zu starten. Die Plattform:

  1. Stellt eine GPU-Instanz bereit
  2. Lädt Ihren Datensatz herunter
  3. Beginnt das Training
  4. Streamt Metriken in Echtzeit

Kostenlose Credits

Neue Konten erhalten 5 $ Anmelde-Guthaben (25 $ für Unternehmens-E-Mails) – genug für mehrere Trainingsläufe. Überprüfen Sie Ihr Guthaben unter „Einstellungen“ > „Abrechnung“.

Training überwachen

Fortschritt des Trainings in Echtzeit anzeigen:

Live-Metriken

MetrikBeschreibung
VerlustTrainings- und Validierungsverlust
mAPMittlere durchschnittliche Präzision
PräzisionKorrekte positive Vorhersagen
RecallErkannte Ground Truths
GPU-AuslastungProzentsatz der GPU-Auslastung
ArbeitsspeicherGPU-Speichernutzung

Checkpoints

Checkpoints werden automatisch gespeichert:

  • Jede Epoche: Neueste Gewichte gespeichert
  • Bestes Modell: Checkpoint mit höchstem mAP beibehalten
  • Endgültiges Modell: Gewichte nach Abschluss des Trainings

Beenden und fortsetzen

Training beenden

Klicken Sie auf Training stoppen, um Ihren Job zu pausieren:

  • Aktueller Checkpoint wird gespeichert
  • GPU-Instanz wird freigegeben
  • Guthaben wird nicht mehr berechnet

Training fortsetzen

Von Ihrem letzten Checkpoint fortfahren:

  1. Navigieren Sie zum Modell
  2. Klicken Sie auf Training fortsetzen
  3. Fortsetzung bestätigen

Einschränkungen beim Fortsetzen

Sie können nur ein Training fortsetzen, das explizit gestoppt wurde. Fehlgeschlagene Trainingsjobs müssen möglicherweise von Grund auf neu gestartet werden.

Remote-Training

Trainieren Sie auf Ihrer eigenen Hardware und streamen Sie Metriken zur Plattform.

Anforderung an die Paketversion

Die Plattform-Integration erfordert ultralytics>=8.4.0. Ältere Versionen funktionieren NICHT mit der Plattform.

pip install "ultralytics>=8.4.0"

API-Schlüssel einrichten

  1. Gehen Sie zu Einstellungen > API-Schlüssel
  2. Erstellen Sie einen neuen Schlüssel mit Trainingsumfang
  3. Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="your_api_key"

Training mit Streaming

Verwenden Sie den project und name Parameter zum Streamen von Metriken:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

Nutzung von Plattform-Datensätzen

Trainieren Sie mit auf der Plattform gespeicherten Datensätzen:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100

Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn.

Abrechnung

Trainingskosten basieren auf der GPU-Nutzung:

Kostenvoranschlag

Vor Beginn des Trainings schätzt die Plattform die Gesamtkosten auf der Grundlage folgender Faktoren:

Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate

Faktoren, die die Kosten beeinflussen:

FaktorAuswirkung
DatensatzgrößeMehr Bilder = längere Trainingszeit
ModellgrößeGrößere Modelle (m, l, x) trainieren langsamer als (n, s).
Anzahl der EpochenDirekter Multiplikator für die Ausbildungszeit
BildgrößeGrößere Bildgrößen erhöhen den Rechenaufwand.
GPUSchnellere GPUs verkürzen die Trainingszeit

Kostenbeispiele

SzenarioGPUZeitKosten
1000 Bilder, YOLO26n, 100 EpochenRTX 4090~1 Stunde~0,60 $
5000 Bilder, YOLO26m, 100 EpochenA100 80GB~4 Stunden~13,76 $
10.000 Bilder, YOLO26x, 200 EpochenH100~8 Stunden~43,04 $

Hold/Settle-System

Die Plattform verwendet ein Abrechnungsmodell zum Schutz der Verbraucher:

  1. Schätzung: Kosten werden vor Beginn der Schulung berechnet
  2. Zurückhalten: Geschätzter Betrag + 20 % Sicherheitsmarge vom Saldo reserviert
  3. Zug: Reservierter Betrag wird in Ihrem Guthaben als „Reserviert“ angezeigt.
  4. Abrechnung: Nach Fertigstellung wird nur die tatsächlich genutzte GPU in Rechnung gestellt.
  5. Rückerstattung: Überschüssige Beträge werden automatisch Ihrem Guthaben gutgeschrieben.

Verbraucherschutz

Es werden Ihnen niemals höhere Kosten als die vor dem Training angegebene Schätzung in Rechnung gestellt. Wenn das Training vorzeitig beendet oder abgesagt wird, zahlen Sie nur für die tatsächlich genutzte Rechenzeit.

Zahlungsmethoden

MethodeBeschreibung
KontostandVorgeladene Guthaben
Zahlung pro AuftragAbrechnung nach Auftragsabschluss

Mindestguthaben

Ein Mindestguthaben von 5,00 $ ist erforderlich, um ein epochenbasiertes Training zu starten.

Trainingskosten anzeigen

Nach dem Training können Sie detaillierte Kosten im Tab Abrechnung einsehen:

  • Kostenaufschlüsselung pro Epoche
  • Gesamte GPU-Zeit
  • Kostenbericht herunterladen

Trainingstipps

Die richtige Modellgröße wählen

ModellParameterAm besten geeignet für
YOLO26n2.4MEchtzeit, Edge-Geräte
YOLO26s9.5MAusgewogene Geschwindigkeit/Genauigkeit
YOLO26m20.4MHöhere Genauigkeit
YOLO26l24.8MProduktionsgenauigkeit
YOLO26x55.7MMaximale Genauigkeit

Trainingszeit optimieren

  1. Klein anfangen: Zuerst mit weniger Epochen testen
  2. Geeignete GPU verwenden: GPU an Modell/Batch-Größe anpassen
  3. Datensatz validieren: Qualität vor dem Training sicherstellen
  4. Frühzeitig überwachen: Stoppen, wenn Metriken stagnieren

Fehlerbehebung

ProblemLösung
Training bei 0% festgefahrenDatensatzformat prüfen, erneut versuchen
Nicht genügend ArbeitsspeicherBatch-Größe reduzieren oder größere GPU verwenden
Geringe GenauigkeitEpochen erhöhen, Datenqualität prüfen
Training langsamSchnellere GPU in Betracht ziehen

FAQ

Wie lange dauert das Training?

Die Trainingszeit hängt ab von:

  • Datensatzgröße
  • Modellgröße
  • Anzahl der Epochen
  • Ausgewählte GPU

Typische Zeiten (1000 Bilder, 100 Epochen):

ModellRTX 4090A100
YOLO26n30 Min.20 Min.
YOLO26m60 Min.40 Min.
YOLO26x120 Min.80 Min.

Kann ich über Nacht trainieren?

Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ausreichend Guthaben für das epochenbasierte Training verfügt.

Was passiert, wenn meine Credits aufgebraucht sind?

Das Training pausiert am Ende der aktuellen Epoche. Ihr Checkpoint wird gespeichert, und Sie können nach dem Hinzufügen von Guthaben fortfahren.

Kann ich benutzerdefinierte Trainingsargumente verwenden?

Ja, fortgeschrittene Benutzer können zusätzliche Argumente in der Trainingskonfiguration angeben.

Trainingsparameter-Referenz

Kernparameter

ParameterTypStandardBereichBeschreibung
epochsint1001+Anzahl der Trainingsepochen
batchint16-1 = automatischBatch-Größe (-1 für automatisch)
imgszint64032+Eingabebildgröße
patienceint1000+Patience für Early Stopping
workersint80+Dataloader-Worker
cacheboolFalsch-Bilder cachen (RAM/Festplatte)

Lernratenparameter

ParameterTypStandardBereichBeschreibung
lr0float0.010.0-1.0Anfängliche Lernrate
lrffloat0.010.0-1.0Finaler LR-Faktor
momentumfloat0.9370.0-1.0SGD-Momentum
weight_decayfloat0.00050.0-1.0L2-Regularisierung
warmup_epochsfloat3.00+Warmup-Epochen
cos_lrboolFalsch-Cosine-LR-Scheduler

Augmentationsparameter

ParameterTypStandardBereichBeschreibung
hsv_hfloat0.0150.0-1.0HSV-Farbton-Augmentierung
hsv_sfloat0.70.0-1.0HSV-Sättigung
hsv_vfloat0.40.0-1.0HSV-Wert
degreesfloat0.0-Rotationsgrad
translatefloat0.10.0-1.0Translationsfraktion
scalefloat0.50.0-1.0Skalierungsfaktor
fliplrfloat0.50.0-1.0Horizontale Spiegelungswahrscheinlichkeit
flipudfloat0.00.0-1.0Vertikale Spiegelungswahrscheinlichkeit
mosaicfloat1.00.0-1.0Mosaic-Augmentierung
mixupfloat0.00.0-1.0MixUp-Augmentierung
copy_pastefloat0.00.0-1.0Copy-Paste (segment)

Optimiererauswahl

WertBeschreibung
autoAutomatische Auswahl (Standard)
SGDStochastischer Gradientenabstieg
AdamAdam-Optimierer
AdamWAdam mit Gewichtsabnahme

Aufgabenspezifische Parameter

Einige Parameter gelten nur für bestimmte Aufgaben:

  • Segmentieren: overlap_mask, mask_ratio, copy_paste
  • Pose: pose (Verlustgewicht), kobj (Keypoint-Objekthaftigkeit)
  • Klassifizieren: dropout, erasing, auto_augment


📅 Erstellt vor 20 Tagen ✏️ Aktualisiert vor 14 Tagen
glenn-jocherLaughing-q

Kommentare