Cloud-Training
Ultralytics Cloud Training bietet Ein-Klick-Schulungen zu Cloud-GPUs, sodass das Modelltraining ohne komplexe Einrichtung zugänglich ist. Trainieren Sie YOLO mit Echtzeit-Metrik-Streaming und automatischer Speicherung von Checkpoints.
Ansehen: Cloud-Schulung mit Ultralytics
Zug von UI
Starten Sie die Cloud-Schulung direkt von der Plattform aus:
- Navigieren Sie zu Ihrem Projekt
- Klick -Zugmodell
- Trainingsparameter konfigurieren
- Klicken Sie auf „Training starten“
Schritt 1: Datensatz auswählen
Wählen Sie einen Datensatz aus Ihren Uploads aus:
| Option | Beschreibung |
|---|---|
| Ihre Datensätze | Von Ihnen hochgeladene Datensätze |
| Öffentliche Datensätze | Gemeinsam genutzte Datensätze aus Explore |
Schritt 2: Modell konfigurieren
Wählen Sie das Basismodell und die Parameter aus:
| Parameter | Beschreibung | Standard |
|---|---|---|
| Modell | Basisarchitektur (YOLO11n, s, m, l, x) | YOLO11n |
| Epochen | Anzahl der Trainingsiterationen | 100 |
| Bildgröße | Eingangsauflösung | 640 |
| Batch-Größe | Proben pro Iteration | Auto |
Schritt 3: GPU auswählen
Wählen Sie Ihre Rechenressourcen aus:
| GPU | VRAM | Geschwindigkeit | Kosten/Stunde |
|---|---|---|---|
| RTX 6000 Pro | 96 GB | Sehr schnell | Kostenlos |
| M4 Pro (Mac) | 64 GB | Schnell | Kostenlos |
| RTX 3090 | 24 GB | Gut | $0.44 |
| RTX 4090 | 24 GB | Schnell | $0.74 |
| L40S | 48 GB | Schnell | $1.14 |
| A100 40 GB | 40 GB | Sehr schnell | $1.29 |
| A100 80 GB | 80 GB | Sehr schnell | $1.99 |
| H100 80 GB | 80 GB | Schnellste | $3.99 |
GPU
- RTX 6000 Pro (kostenlos): Hervorragend geeignet für die meisten Trainingsaufgaben auf Ultralytics
- M4 Pro (kostenlos): Apple Silicon-Option für kompatible Workloads
- RTX 4090: Das beste Preis-Leistungs-Verhältnis für kostenpflichtige Cloud-Schulungen
- A100 80 GB: Erforderlich für große Losgrößen oder große Modelle
- H100: Maximale Leistung für zeitkritisches Training
Kostenlose Schulungsstufe
Die GPUs RTX 6000 Pro Ada (96 GB VRAM) und M4 Pro sind kostenlos verfügbar und laufen auf Ultralytics . Sie eignen sich ideal für den Einstieg und regelmäßige Trainingsaufgaben.
Schritt 4: Mit dem Training beginnen
Klicken Sie auf „Training starten“, um Ihren Auftrag zu starten. Die Plattform:
- Bereitstellung einer GPU
- Laden Sie Ihren Datensatz herunter
- Beginnt mit dem Training
- Streaming-Metriken in Echtzeit
Kostenlose Credits
Neue Konten erhalten ein Guthaben von 5 $ – genug für mehrere Trainingsläufe auf RTX 4090. Überprüfen Sie Ihr Guthaben unter „Einstellungen“ > „Abrechnung“.
Monitor-Schulung
Trainingsfortschritt in Echtzeit anzeigen:
Live-Metriken
| Metrik | Beschreibung |
|---|---|
| Verlust | Trainings- und Validierungsverlust |
| mAP | Mittlere durchschnittliche Präzision |
| Präzision | Korrekte positive Vorhersagen |
| Recall | Erkannte Bodenwahrheiten |
| GPU | GPU in Prozent |
| Arbeitsspeicher | GPU |
Kontrollpunkte
Checkpoints werden automatisch gespeichert:
- Jede Epoche: Zuletzt gespeicherte Gewichte
- Bestes Modell: Höchster mAP beibehalten
- Endgültiges Modell: Gewichte nach Abschluss des Trainings
Anhalten und Fortsetzen
Training beenden
Klicken Sie auf „Training beenden“, um Ihren Auftrag zu unterbrechen:
- Aktueller Kontrollpunkt wird gespeichert
- GPU wird freigegeben
- Die Credits werden nicht mehr berechnet.
Ausbildung wieder aufnehmen
Weiter vom letzten Kontrollpunkt:
- Navigieren Sie zum Modell
- Klicken Sie auf „Training fortsetzen“.
- Fortsetzung bestätigen
Lebenslauf-Einschränkungen
Sie können nur Trainings fortsetzen, die ausdrücklich angehalten wurden. Fehlgeschlagene Trainingsaufträge müssen möglicherweise von vorne begonnen werden.
Fernschulung
Trainieren Sie auf Ihrer eigenen Hardware, während Sie Metriken an die Plattform streamen.
Anforderungen an die Paketversion
Für die Plattformintegration ist ultralytics>= 8.4.0 erforderlich. Niedrigere Versionen funktionieren NICHT mit der Plattform.
pip install "ultralytics>=8.4.0"
API-Schlüssel einrichten
- Gehen Sie zu Einstellungen > API-Schlüssel
- Erstellen Sie einen neuen Schlüssel mit Trainingsumfang.
- Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="your_api_key"
Trainieren mit Streaming
Verwenden Sie den project und name Parameter zum Streamen von Metriken:
yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Verwendung von Plattform-Datensätzen
Trainieren Sie mit Datensätzen, die auf der Plattform gespeichert sind:
yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100
Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn.
Abrechnung
Die Schulungskosten richten sich nach GPU :
Kostenberechnung
Total Cost = GPU Rate × Training Time (hours)
| Beispiel | GPU | Zeit | Kosten |
|---|---|---|---|
| Kleiner Auftrag | RTX 4090 | 1 Stunde | $0.74 |
| Mittlere Aufgabe | A100 40 GB | 4 Stunden | $5.16 |
| Großer Auftrag | H100 | 8 Stunden | $31.92 |
Zahlungsmethoden
| Methode | Beschreibung |
|---|---|
| Kontostand | Vorinstallierte Credits |
| Bezahlung pro Auftrag | Gebühr bei Auftragsabschluss |
Mindestguthaben
Für den Start des epochbasierten Trainings ist ein Mindestguthaben von 5,00 $ erforderlich.
Schulungskosten anzeigen
Nach dem Training können Sie die detaillierten Kosten auf der Registerkarte „Abrechnung“ einsehen:
- Kostenaufschlüsselung pro Epoche
- GPU
- Kostenbericht herunterladen
Trainingstipps
Wählen Sie die richtige Modellgröße
| Modell | Parameter | Am besten geeignet für |
|---|---|---|
| YOLO11n | 2.6M | Echtzeit, Edge-Geräte |
| YOLO11s | 9.4M | Ausgewogenes Verhältnis zwischen Geschwindigkeit und Genauigkeit |
| YOLO11m | 20.1M | Höhere Genauigkeit |
| YOLO11l | 25.3M | Produktionsgenauigkeit |
| YOLO11x | 56.9M | Höchste Genauigkeit |
Trainingszeit optimieren
- Fangen Sie klein an: Testen Sie zunächst mit weniger Epochen.
- Geeignete GPU verwenden: GPU Modell-/Batchgröße anpassen
- Datensatz validieren: Qualität vor dem Training sicherstellen
- Frühzeitig überwachen: Bei stagnierenden Kennzahlen stoppen
Fehlerbehebung
| Problem | Lösung |
|---|---|
| Training bleibt bei 0 % stehen | Datenformat überprüfen, erneut versuchen |
| Speicher voll | Reduzieren Sie die Stapelgröße oder verwenden Sie GPU größere GPU. |
| Geringe Genauigkeit | Epochen erhöhen, Datenqualität überprüfen |
| Langsames Training | Schnellere GPU in Betracht ziehen |
FAQ
Wie lange dauert die Ausbildung?
Die Trainingszeit hängt ab von:
- Datensatzgröße
- Modellgröße
- Anzahl der Epochen
- GPU
Typische Zeiten (1000 Bilder, 100 Epochen):
| Modell | RTX 4090 | A100 |
|---|---|---|
| YOLO11n | 30 Minuten | 20 Minuten |
| YOLO11m | 60 Minuten | 40 Minuten |
| YOLO11x | 120 Minuten | 80 Minuten |
Kann ich über Nacht trainieren?
Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ein ausreichendes Guthaben für das epochbasierte Training verfügt.
Was passiert, wenn ich keine Credits mehr habe?
Das Training wird am Ende der aktuellen Epoche unterbrochen. Ihr Checkpoint wird gespeichert, und Sie können nach dem Hinzufügen von Credits fortfahren.
Kann ich benutzerdefinierte Trainingsargumente verwenden?
Ja, fortgeschrittene Benutzer können zusätzliche Argumente in der Trainingskonfiguration angeben.
Referenz zu den Trainingsparametern
Kernparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Anzahl der Trainings-Epochen |
batch | int | 16 | -1 = automatisch | Stapelgröße (-1 für automatisch) |
imgsz | int | 640 | 32+ | Größe des Eingabebildes |
patience | int | 100 | 0+ | Frühzeitiges Aufhören Geduld |
workers | int | 8 | 0+ | Datenlader-Mitarbeiter |
cache | bool | Falsch | - | Cache-Bilder (RAM/Festplatte) |
Lernratenparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
lr0 | Schwimmer | 0.01 | 0,0–1,0 | Anfängliche Lernrate |
lrf | Schwimmer | 0.01 | 0,0–1,0 | Endgültiger LR-Faktor |
momentum | Schwimmer | 0.937 | 0,0–1,0 | SGD |
weight_decay | Schwimmer | 0.0005 | 0,0–1,0 | L2-Regularisierung |
warmup_epochs | Schwimmer | 3.0 | 0+ | Warmup-Epochen |
cos_lr | bool | Falsch | - | Cosinus-LR-Scheduler |
Augmentationsparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
hsv_h | Schwimmer | 0.015 | 0,0–1,0 | HSV-Farbtonverstärkung |
hsv_s | Schwimmer | 0.7 | 0,0–1,0 | HSV-Sättigung |
hsv_v | Schwimmer | 0.4 | 0,0–1,0 | HSV-Wert |
degrees | Schwimmer | 0.0 | - | Rotationswinkel |
translate | Schwimmer | 0.1 | 0,0–1,0 | Übersetzungsanteil |
scale | Schwimmer | 0.5 | 0,0–1,0 | Skalierungsfaktor |
fliplr | Schwimmer | 0.5 | 0,0–1,0 | Horizontale Flip-Sonde |
flipud | Schwimmer | 0.0 | 0,0–1,0 | Vertikaler Flip-Tester |
mosaic | Schwimmer | 1.0 | 0,0–1,0 | Mosaikvergrößerung |
mixup | Schwimmer | 0.0 | 0,0–1,0 | Verwechslung |
copy_paste | Schwimmer | 0.0 | 0,0–1,0 | Kopieren und Einfügen (segment) |
Auswahl des Optimierers
| Wert | Beschreibung |
|---|---|
auto | Automatische Auswahl (Standard) |
SGD | Stochastischer Gradientenabstieg |
Adam | Adam-Optimierer |
AdamW | Adam Gewichtsverlust |
Aufgabenspezifische Parameter
Einige Parameter gelten nur für bestimmte Aufgaben:
- Segmentieren:
overlap_mask,mask_ratio,copy_paste - Pose:
pose(Gewichtsverlust),kobj(Schlüsselpunkt Objektivität) - Klassifizieren:
dropout,erasing,auto_augment