Cloud-Training
Ultralytics Platform Cloud-Training bietet Training mit einem Klick auf Cloud-GPUs, wodurch das Modelltraining ohne komplexe Einrichtung zugänglich wird. Trainieren Sie YOLO-Modelle mit Echtzeit-Metrik-Streaming und automatischer Checkpoint-Speicherung.
Training über die UI
Starten Sie das Cloud-Training direkt von der Plattform aus:
- Navigieren Sie zu Ihrem Projekt
- Klicken Sie auf Modell trainieren
- Trainingsparameter konfigurieren
- Klicken Sie auf Training starten
Schritt 1: Datensatz auswählen
Wählen Sie einen Datensatz aus Ihren Uploads:
| Option | Beschreibung |
|---|---|
| Ihre Datensätze | Von Ihnen hochgeladene Datensätze |
| Öffentliche Datensätze | Öffentliche Datensätze aus Explore |
Schritt 2: Modell konfigurieren
Basismodell und Parameter auswählen:
| Parameter | Beschreibung | Standard |
|---|---|---|
| Modell | Basisarchitektur (YOLO26n, s, m, l, x) | YOLO26n |
| Epochen | Anzahl der Trainingsiterationen | 100 |
| Bildgröße | Eingangsauflösung | 640 |
| Batch-Größe | Samples pro Iteration | Auto |
Schritt 3: GPU auswählen
Wählen Sie Ihre Rechenressourcen:
| Stufe | GPU | VRAM | Preis/Stunde | Am besten geeignet für |
|---|---|---|---|---|
| Budget | RTX A2000 | 6 GB | $0.12 | Kleine Datensätze, Testen |
| Budget | RTX 3080 | 10 GB | $0.25 | Mittlere Datensätze |
| Budget | RTX 3080 Ti | 12 GB | $0.30 | Mittlere Datensätze |
| Budget | A30 | 24 GB | $0.44 | Größere Losgrößen |
| Mitte | RTX 4090 | 24 GB | $0.60 | Hervorragendes Preis-Leistungs-Verhältnis |
| Mitte | A6000 | 48 GB | $0.90 | Große Modelle |
| Mitte | L4 | 24 GB | $0.54 | Optimierte Schlussfolgerung |
| Mitte | L40S | 48 GB | $1.72 | Großes Batch-Training |
| Pro | A100 40GB | 40 GB | $2.78 | Produktionsschulung |
| Pro | A100 80GB | 80 GB | $3.44 | Sehr große Modelle |
| Pro | H100 | 80 GB | $5.38 | Schnellstes Training |
| Enterprise | H200 | 141 GB | $5.38 | Maximale Leistung |
| Enterprise | B200 | 192 GB | $10.38 | Größte Modelle |
| Ultralytics | RTX PRO 6000 | 48 GB | $3.68 | Ultralytics |
GPU-Auswahl
- RTX 4090: Bestes Preis-Leistungs-Verhältnis für die meisten Aufgaben mit 0,60 $/Stunde
- A100 80GB: Erforderlich für große Batch-Größen oder umfangreiche Modelle
- H100/H200: Maximale Leistung für zeitkritisches Training
- B200: NVIDIA -Architektur für anspruchsvolle Workloads
Schritt 4: Training starten
Klicken Sie auf Training starten, um Ihren Job zu starten. Die Plattform:
- Stellt eine GPU-Instanz bereit
- Lädt Ihren Datensatz herunter
- Beginnt das Training
- Streamt Metriken in Echtzeit
Kostenlose Credits
Neue Konten erhalten 5 $ Anmelde-Guthaben (25 $ für Unternehmens-E-Mails) – genug für mehrere Trainingsläufe. Überprüfen Sie Ihr Guthaben unter „Einstellungen“ > „Abrechnung“.
Training überwachen
Fortschritt des Trainings in Echtzeit anzeigen:
Live-Metriken
| Metrik | Beschreibung |
|---|---|
| Verlust | Trainings- und Validierungsverlust |
| mAP | Mittlere durchschnittliche Präzision |
| Präzision | Korrekte positive Vorhersagen |
| Recall | Erkannte Ground Truths |
| GPU-Auslastung | Prozentsatz der GPU-Auslastung |
| Arbeitsspeicher | GPU-Speichernutzung |
Checkpoints
Checkpoints werden automatisch gespeichert:
- Jede Epoche: Neueste Gewichte gespeichert
- Bestes Modell: Checkpoint mit höchstem mAP beibehalten
- Endgültiges Modell: Gewichte nach Abschluss des Trainings
Beenden und fortsetzen
Training beenden
Klicken Sie auf Training stoppen, um Ihren Job zu pausieren:
- Aktueller Checkpoint wird gespeichert
- GPU-Instanz wird freigegeben
- Guthaben wird nicht mehr berechnet
Training fortsetzen
Von Ihrem letzten Checkpoint fortfahren:
- Navigieren Sie zum Modell
- Klicken Sie auf Training fortsetzen
- Fortsetzung bestätigen
Einschränkungen beim Fortsetzen
Sie können nur ein Training fortsetzen, das explizit gestoppt wurde. Fehlgeschlagene Trainingsjobs müssen möglicherweise von Grund auf neu gestartet werden.
Remote-Training
Trainieren Sie auf Ihrer eigenen Hardware und streamen Sie Metriken zur Plattform.
Anforderung an die Paketversion
Die Plattform-Integration erfordert ultralytics>=8.4.0. Ältere Versionen funktionieren NICHT mit der Plattform.
pip install "ultralytics>=8.4.0"
API-Schlüssel einrichten
- Gehen Sie zu Einstellungen > API-Schlüssel
- Erstellen Sie einen neuen Schlüssel mit Trainingsumfang
- Setzen Sie die Umgebungsvariable:
export ULTRALYTICS_API_KEY="your_api_key"
Training mit Streaming
Verwenden Sie den project und name Parameter zum Streamen von Metriken:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Nutzung von Plattform-Datensätzen
Trainieren Sie mit auf der Plattform gespeicherten Datensätzen:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100
Die ul:// Das URI-Format lädt Ihren Datensatz automatisch herunter und konfiguriert ihn.
Abrechnung
Trainingskosten basieren auf der GPU-Nutzung:
Kostenvoranschlag
Vor Beginn des Trainings schätzt die Plattform die Gesamtkosten auf der Grundlage folgender Faktoren:
Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate
Faktoren, die die Kosten beeinflussen:
| Faktor | Auswirkung |
|---|---|
| Datensatzgröße | Mehr Bilder = längere Trainingszeit |
| Modellgröße | Größere Modelle (m, l, x) trainieren langsamer als (n, s). |
| Anzahl der Epochen | Direkter Multiplikator für die Ausbildungszeit |
| Bildgröße | Größere Bildgrößen erhöhen den Rechenaufwand. |
| GPU | Schnellere GPUs verkürzen die Trainingszeit |
Kostenbeispiele
| Szenario | GPU | Zeit | Kosten |
|---|---|---|---|
| 1000 Bilder, YOLO26n, 100 Epochen | RTX 4090 | ~1 Stunde | ~0,60 $ |
| 5000 Bilder, YOLO26m, 100 Epochen | A100 80GB | ~4 Stunden | ~13,76 $ |
| 10.000 Bilder, YOLO26x, 200 Epochen | H100 | ~8 Stunden | ~43,04 $ |
Hold/Settle-System
Die Plattform verwendet ein Abrechnungsmodell zum Schutz der Verbraucher:
- Schätzung: Kosten werden vor Beginn der Schulung berechnet
- Zurückhalten: Geschätzter Betrag + 20 % Sicherheitsmarge vom Saldo reserviert
- Zug: Reservierter Betrag wird in Ihrem Guthaben als „Reserviert“ angezeigt.
- Abrechnung: Nach Fertigstellung wird nur die tatsächlich genutzte GPU in Rechnung gestellt.
- Rückerstattung: Überschüssige Beträge werden automatisch Ihrem Guthaben gutgeschrieben.
Verbraucherschutz
Es werden Ihnen niemals höhere Kosten als die vor dem Training angegebene Schätzung in Rechnung gestellt. Wenn das Training vorzeitig beendet oder abgesagt wird, zahlen Sie nur für die tatsächlich genutzte Rechenzeit.
Zahlungsmethoden
| Methode | Beschreibung |
|---|---|
| Kontostand | Vorgeladene Guthaben |
| Zahlung pro Auftrag | Abrechnung nach Auftragsabschluss |
Mindestguthaben
Ein Mindestguthaben von 5,00 $ ist erforderlich, um ein epochenbasiertes Training zu starten.
Trainingskosten anzeigen
Nach dem Training können Sie detaillierte Kosten im Tab Abrechnung einsehen:
- Kostenaufschlüsselung pro Epoche
- Gesamte GPU-Zeit
- Kostenbericht herunterladen
Trainingstipps
Die richtige Modellgröße wählen
| Modell | Parameter | Am besten geeignet für |
|---|---|---|
| YOLO26n | 2.4M | Echtzeit, Edge-Geräte |
| YOLO26s | 9.5M | Ausgewogene Geschwindigkeit/Genauigkeit |
| YOLO26m | 20.4M | Höhere Genauigkeit |
| YOLO26l | 24.8M | Produktionsgenauigkeit |
| YOLO26x | 55.7M | Maximale Genauigkeit |
Trainingszeit optimieren
- Klein anfangen: Zuerst mit weniger Epochen testen
- Geeignete GPU verwenden: GPU an Modell/Batch-Größe anpassen
- Datensatz validieren: Qualität vor dem Training sicherstellen
- Frühzeitig überwachen: Stoppen, wenn Metriken stagnieren
Fehlerbehebung
| Problem | Lösung |
|---|---|
| Training bei 0% festgefahren | Datensatzformat prüfen, erneut versuchen |
| Nicht genügend Arbeitsspeicher | Batch-Größe reduzieren oder größere GPU verwenden |
| Geringe Genauigkeit | Epochen erhöhen, Datenqualität prüfen |
| Training langsam | Schnellere GPU in Betracht ziehen |
FAQ
Wie lange dauert das Training?
Die Trainingszeit hängt ab von:
- Datensatzgröße
- Modellgröße
- Anzahl der Epochen
- Ausgewählte GPU
Typische Zeiten (1000 Bilder, 100 Epochen):
| Modell | RTX 4090 | A100 |
|---|---|---|
| YOLO26n | 30 Min. | 20 Min. |
| YOLO26m | 60 Min. | 40 Min. |
| YOLO26x | 120 Min. | 80 Min. |
Kann ich über Nacht trainieren?
Ja, das Training wird bis zum Abschluss fortgesetzt. Sie erhalten eine Benachrichtigung, wenn das Training beendet ist. Stellen Sie sicher, dass Ihr Konto über ausreichend Guthaben für das epochenbasierte Training verfügt.
Was passiert, wenn meine Credits aufgebraucht sind?
Das Training pausiert am Ende der aktuellen Epoche. Ihr Checkpoint wird gespeichert, und Sie können nach dem Hinzufügen von Guthaben fortfahren.
Kann ich benutzerdefinierte Trainingsargumente verwenden?
Ja, fortgeschrittene Benutzer können zusätzliche Argumente in der Trainingskonfiguration angeben.
Trainingsparameter-Referenz
Kernparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Anzahl der Trainingsepochen |
batch | int | 16 | -1 = automatisch | Batch-Größe (-1 für automatisch) |
imgsz | int | 640 | 32+ | Eingabebildgröße |
patience | int | 100 | 0+ | Patience für Early Stopping |
workers | int | 8 | 0+ | Dataloader-Worker |
cache | bool | Falsch | - | Bilder cachen (RAM/Festplatte) |
Lernratenparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
lr0 | float | 0.01 | 0.0-1.0 | Anfängliche Lernrate |
lrf | float | 0.01 | 0.0-1.0 | Finaler LR-Faktor |
momentum | float | 0.937 | 0.0-1.0 | SGD-Momentum |
weight_decay | float | 0.0005 | 0.0-1.0 | L2-Regularisierung |
warmup_epochs | float | 3.0 | 0+ | Warmup-Epochen |
cos_lr | bool | Falsch | - | Cosine-LR-Scheduler |
Augmentationsparameter
| Parameter | Typ | Standard | Bereich | Beschreibung |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0.0-1.0 | HSV-Farbton-Augmentierung |
hsv_s | float | 0.7 | 0.0-1.0 | HSV-Sättigung |
hsv_v | float | 0.4 | 0.0-1.0 | HSV-Wert |
degrees | float | 0.0 | - | Rotationsgrad |
translate | float | 0.1 | 0.0-1.0 | Translationsfraktion |
scale | float | 0.5 | 0.0-1.0 | Skalierungsfaktor |
fliplr | float | 0.5 | 0.0-1.0 | Horizontale Spiegelungswahrscheinlichkeit |
flipud | float | 0.0 | 0.0-1.0 | Vertikale Spiegelungswahrscheinlichkeit |
mosaic | float | 1.0 | 0.0-1.0 | Mosaic-Augmentierung |
mixup | float | 0.0 | 0.0-1.0 | MixUp-Augmentierung |
copy_paste | float | 0.0 | 0.0-1.0 | Copy-Paste (segment) |
Optimiererauswahl
| Wert | Beschreibung |
|---|---|
auto | Automatische Auswahl (Standard) |
SGD | Stochastischer Gradientenabstieg |
Adam | Adam-Optimierer |
AdamW | Adam mit Gewichtsabnahme |
Aufgabenspezifische Parameter
Einige Parameter gelten nur für bestimmte Aufgaben:
- Segmentieren:
overlap_mask,mask_ratio,copy_paste - Pose:
pose(Verlustgewicht),kobj(Keypoint-Objekthaftigkeit) - Klassifizieren:
dropout,erasing,auto_augment