Zum Inhalt springen

Cloud-Training

Ultralytics Cloud Training bietet Ein-Klick-Schulungen zu Cloud-GPUs, sodass das Modelltraining ohne komplexe Einrichtung zugänglich ist. Trainieren Sie YOLO mit Echtzeit-Metrik-Streaming und automatischer Speicherung von Checkpoints.


Ansehen: Cloud-Schulung mit Ultralytics

Zug von UI

Starten Sie die Cloud-Schulung direkt von der Plattform aus:

  1. Navigieren Sie zu Ihrem Projekt
  2. Klick -Zugmodell
  3. Trainingsparameter konfigurieren
  4. Klicken Sie auf „Training starten“

Schritt 1: Datensatz auswählen

Wählen Sie einen Datensatz aus Ihren Uploads aus:

OptionBeschreibung
Ihre DatensätzeVon Ihnen hochgeladene Datensätze
Öffentliche DatensätzeGemeinsam genutzte Datensätze aus Explore

Schritt 2: Modell konfigurieren

Wählen Sie das Basismodell und die Parameter aus:

ParameterBeschreibungStandard
ModellBasisarchitektur (YOLO11n, s, m, l, x)YOLO11n
EpochenAnzahl der Trainingsiterationen100
BildgrößeEingangsauflösung640
Batch-GrößeProben pro IterationAuto

Schritt 3: GPU auswählen

Wählen Sie Ihre Rechenressourcen aus:

GPUVRAMGeschwindigkeitKosten/Stunde
RTX 6000 Pro96 GBSehr schnellKostenlos
M4 Pro (Mac)64 GBSchnellKostenlos
RTX 309024 GBGut$0.44
RTX 409024 GBSchnell$0.74
L40S48 GBSchnell$1.14
A100 40 GB40 GBSehr schnell$1.29
A100 80 GB80 GBSehr schnell$1.99
H100 80 GB80 GBSchnellste$3.99

GPU

  • RTX 6000 Pro (kostenlos): Hervorragend geeignet für die meisten Trainingsaufgaben auf Ultralytics
  • M4 Pro (kostenlos): Apple Silicon-Option für kompatible Workloads
  • RTX 4090: Das beste Preis-Leistungs-Verhältnis für kostenpflichtige Cloud-Schulungen
  • A100 80 GB: Erforderlich für große Losgrößen oder große Modelle
  • H100: Maximale Leistung für zeitkritisches Training

Kostenlose Schulungsstufe

Die GPUs RTX 6000 Pro Ada (96 GB VRAM) und M4 Pro sind kostenlos verfügbar und laufen auf Ultralytics . Sie eignen sich ideal für den Einstieg und regelmäßige Trainingsaufgaben.

Schritt 4: Mit dem Training beginnen

Klicken Sie auf „Training starten“, um Ihren Auftrag zu starten. Die Plattform:

  1. Bereitstellung einer GPU
  2. Laden Sie Ihren Datensatz herunter
  3. Beginnt mit dem Training
  4. Streaming-Metriken in Echtzeit

Kostenlose Credits

Neue Konten erhalten ein Guthaben von 5 $ – genug für mehrere Trainingsläufe auf RTX 4090. Überprüfen Sie Ihr Guthaben unter „Einstellungen“ > „Abrechnung“.

Monitor-Schulung

Trainingsfortschritt in Echtzeit anzeigen:

Live-Metriken

MetrikBeschreibung
VerlustTrainings- und Validierungsverlust
mAPMittlere durchschnittliche Präzision
PräzisionKorrekte positive Vorhersagen
RecallErkannte Bodenwahrheiten
GPUGPU in Prozent
ArbeitsspeicherGPU

Kontrollpunkte

Checkpoints werden automatisch gespeichert:

  • Jede Epoche: Zuletzt gespeicherte Gewichte
  • Bestes Modell: Höchster mAP beibehalten
  • Endgültiges Modell: Gewichte nach Abschluss des Trainings

Anhalten und Fortsetzen

Training beenden

Klicken Sie auf „Training beenden“, um Ihren Auftrag zu unterbrechen:

  • Aktueller Kontrollpunkt wird gespeichert
  • GPU wird freigegeben
  • Die Credits werden nicht mehr berechnet.

Ausbildung wieder aufnehmen

Weiter vom letzten Kontrollpunkt:

  1. Navigieren Sie zum Modell
  2. Klicken Sie auf „Training fortsetzen“.
  3. Fortsetzung bestätigen

Lebenslauf-Einschränkungen

Sie können nur Trainings fortsetzen, die ausdrücklich angehalten wurden. Fehlgeschlagene Trainingsaufträge müssen möglicherweise von vorne begonnen werden.

Fernschulung

Trainieren Sie auf Ihrer eigenen Hardware, während Sie Metriken an die Plattform streamen.

Anforderungen an die Paketversion

Für die Plattformintegration ist ultralytics>= 8.4.0 erforderlich. Niedrigere Versionen funktionieren NICHT mit der Plattform.

pip install "ultralytics>=8.4.0"

API-Schlüssel einrichten

  1. Gehen Sie zu Einstellungen > API-Schlüssel
  2. Erstellen Sie einen neuen Schlüssel mit Trainingsumfang.
  3. Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="your_api_key"

Trainieren mit Streaming

Verwenden Sie den project und name Parameter zum Streamen von Metriken:

yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo11n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

Verwendung von Plattform-Datensätzen

Trainieren Sie mit Datensätzen, die auf der Plattform gespeichert sind:

yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100

Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn.

Abrechnung

Die Schulungskosten richten sich nach GPU :

Kostenberechnung

Total Cost = GPU Rate × Training Time (hours)
BeispielGPUZeitKosten
Kleiner AuftragRTX 40901 Stunde$0.74
Mittlere AufgabeA100 40 GB4 Stunden$5.16
Großer AuftragH1008 Stunden$31.92

Zahlungsmethoden

MethodeBeschreibung
KontostandVorinstallierte Credits
Bezahlung pro AuftragGebühr bei Auftragsabschluss

Mindestguthaben

Für den Start des epochbasierten Trainings ist ein Mindestguthaben von 5,00 $ erforderlich.

Schulungskosten anzeigen

Nach dem Training können Sie die detaillierten Kosten auf der Registerkarte „Abrechnung“ einsehen:

  • Kostenaufschlüsselung pro Epoche
  • GPU
  • Kostenbericht herunterladen

Trainingstipps

Wählen Sie die richtige Modellgröße

ModellParameterAm besten geeignet für
YOLO11n2.6MEchtzeit, Edge-Geräte
YOLO11s9.4MAusgewogenes Verhältnis zwischen Geschwindigkeit und Genauigkeit
YOLO11m20.1MHöhere Genauigkeit
YOLO11l25.3MProduktionsgenauigkeit
YOLO11x56.9MHöchste Genauigkeit

Trainingszeit optimieren

  1. Fangen Sie klein an: Testen Sie zunächst mit weniger Epochen.
  2. Geeignete GPU verwenden: GPU Modell-/Batchgröße anpassen
  3. Datensatz validieren: Qualität vor dem Training sicherstellen
  4. Frühzeitig überwachen: Bei stagnierenden Kennzahlen stoppen

Fehlerbehebung

ProblemLösung
Training bleibt bei 0 % stehenDatenformat überprüfen, erneut versuchen
Speicher vollReduzieren Sie die Stapelgröße oder verwenden Sie GPU größere GPU.
Geringe GenauigkeitEpochen erhöhen, Datenqualität überprüfen
Langsames TrainingSchnellere GPU in Betracht ziehen

FAQ

Wie lange dauert die Ausbildung?

Die Trainingszeit hängt ab von:

  • Datensatzgröße
  • Modellgröße
  • Anzahl der Epochen
  • GPU

Typische Zeiten (1000 Bilder, 100 Epochen):

ModellRTX 4090A100
YOLO11n30 Minuten20 Minuten
YOLO11m60 Minuten40 Minuten
YOLO11x120 Minuten80 Minuten

Kann ich über Nacht trainieren?

Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ein ausreichendes Guthaben für das epochbasierte Training verfügt.

Was passiert, wenn ich keine Credits mehr habe?

Das Training wird am Ende der aktuellen Epoche unterbrochen. Ihr Checkpoint wird gespeichert, und Sie können nach dem Hinzufügen von Credits fortfahren.

Kann ich benutzerdefinierte Trainingsargumente verwenden?

Ja, fortgeschrittene Benutzer können zusätzliche Argumente in der Trainingskonfiguration angeben.

Referenz zu den Trainingsparametern

Kernparameter

ParameterTypStandardBereichBeschreibung
epochsint1001+Anzahl der Trainings-Epochen
batchint16-1 = automatischStapelgröße (-1 für automatisch)
imgszint64032+Größe des Eingabebildes
patienceint1000+Frühzeitiges Aufhören Geduld
workersint80+Datenlader-Mitarbeiter
cacheboolFalsch-Cache-Bilder (RAM/Festplatte)

Lernratenparameter

ParameterTypStandardBereichBeschreibung
lr0Schwimmer0.010,0–1,0Anfängliche Lernrate
lrfSchwimmer0.010,0–1,0Endgültiger LR-Faktor
momentumSchwimmer0.9370,0–1,0SGD
weight_decaySchwimmer0.00050,0–1,0L2-Regularisierung
warmup_epochsSchwimmer3.00+Warmup-Epochen
cos_lrboolFalsch-Cosinus-LR-Scheduler

Augmentationsparameter

ParameterTypStandardBereichBeschreibung
hsv_hSchwimmer0.0150,0–1,0HSV-Farbtonverstärkung
hsv_sSchwimmer0.70,0–1,0HSV-Sättigung
hsv_vSchwimmer0.40,0–1,0HSV-Wert
degreesSchwimmer0.0-Rotationswinkel
translateSchwimmer0.10,0–1,0Übersetzungsanteil
scaleSchwimmer0.50,0–1,0Skalierungsfaktor
fliplrSchwimmer0.50,0–1,0Horizontale Flip-Sonde
flipudSchwimmer0.00,0–1,0Vertikaler Flip-Tester
mosaicSchwimmer1.00,0–1,0Mosaikvergrößerung
mixupSchwimmer0.00,0–1,0Verwechslung
copy_pasteSchwimmer0.00,0–1,0Kopieren und Einfügen (segment)

Auswahl des Optimierers

WertBeschreibung
autoAutomatische Auswahl (Standard)
SGDStochastischer Gradientenabstieg
AdamAdam-Optimierer
AdamWAdam Gewichtsverlust

Aufgabenspezifische Parameter

Einige Parameter gelten nur für bestimmte Aufgaben:

  • Segmentieren: overlap_mask, mask_ratio, copy_paste
  • Pose: pose (Gewichtsverlust), kobj (Schlüsselpunkt Objektivität)
  • Klassifizieren: dropout, erasing, auto_augment


📅 Erstellt vor 0 Tagen ✏️ Aktualisiert vor 0 Tagen
glenn-jocher

Kommentare