Modelltraining
Die Ultralytics Platform bietet umfassende Tools für das Training von YOLO-Modellen, von der Organisation von Experimenten bis zur Ausführung von Cloud-Trainingsjobs mit Echtzeit-Metrik-Streaming.
Überblick
Der Abschnitt Training hilft Ihnen dabei:
- Modelle zur einfacheren Verwaltung in Projekten organisieren
- Trainieren Sie auf Cloud-GPUs mit einem einzigen Klick.
- Überwachen Sie Echtzeit-Metriken während des Trainings.
- Vergleichen Sie die Modellleistung über Experimente hinweg.
- Exportieren Sie in über 17 Bereitstellungsformate (siehe unterstützte Formate)

Workflow
graph LR
A[📁 Project] --> B[⚙️ Configure]
B --> C[🚀 Train]
C --> D[📈 Monitor]
D --> E[📦 Export]
style A fill:#4CAF50,color:#fff
style B fill:#2196F3,color:#fff
style C fill:#FF9800,color:#fff
style D fill:#9C27B0,color:#fff
style E fill:#00BCD4,color:#fff
| Phase | Beschreibung |
|---|---|
| Projekt | Erstellen Sie einen Arbeitsbereich, um verwandte Modelle zu organisieren. |
| Konfigurieren | Datensatz, Basismodell und Trainingsparameter auswählen |
| Trainieren | Ausführen auf Cloud-GPUs oder Ihrer lokalen Hardware. |
| Überwachen | Echtzeit-Verlustkurven und Metriken anzeigen. |
| Export | In über 17 Bereitstellungsformate konvertieren (Details) |
Trainingsoptionen
Ultralytics Platform unterstützt mehrere Trainingsansätze:
| Methode | Beschreibung | Am besten geeignet für |
|---|---|---|
| Cloud-Training | Trainieren Sie auf Ultralytics -GPUs | Keine lokale GPU, Skalierbarkeit |
| Lokale Schulung | Lokal trainieren, Metriken an die Plattform streamen | Vorhandene Hardware, Datenschutz |
| Colab-Training | Verwenden Sie Google mit Plattformintegration | Kostenloser GPU-Zugang |
GPU-Optionen
Verfügbare GPUs für Cloud-Training auf Ultralytics :
| GPU | VRAM | Kosten/Stunde | Am besten geeignet für |
|---|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 | Kleine Datensätze, Testen |
| RTX A4500 | 20 GB | $0.24 | Kleine bis mittlere Datensätze |
| RTX A5000 | 24 GB | $0.26 | Mittlere Datensätze |
| RTX 4000 Ada | 20 GB | $0.38 | Mittlere Datensätze |
| L4 | 24 GB | $0.39 | Optimierte Schlussfolgerung |
| A40 | 48 GB | $0.40 | Größere Losgrößen |
| RTX 3090 | 24 GB | $0.46 | Hervorragendes Preis-Leistungs-Verhältnis |
| RTX A6000 | 48 GB | $0.49 | Große Modelle |
| RTX 4090 | 24 GB | $0.59 | Bestes Preis-Leistungs-Verhältnis |
| RTX 6000 Ada | 48 GB | $0.77 | Großes Batch-Training |
| L40S | 48 GB | $0.86 | Großes Batch-Training |
| RTX 5090 | 32 GB | $0.89 | Neueste Generation |
| L40 | 48 GB | $0.99 | Große Modelle |
| A100 PCIe | 80 GB | $1.39 | Produktionsschulung |
| A100 SXM | 80 GB | $1.49 | Produktionsschulung |
| RTX PRO 6000 | 96 GB | $1.89 | Empfohlene Standardeinstellung |
| H100 PCIe | 80 GB | $2.39 | Hochleistungstraining |
| H100 SXM | 80 GB | $2.69 | Schnellstes Training |
| H100 NVL | 94 GB | $3.07 | Maximale Leistung |
| H200 NVL | 143 GB | $3.39 | Maximaler Speicher |
| H200 SXM | 141 GB | $3.59 | Maximale Leistung |
| B200 | 180 GB | $4.99 | Größte Modelle |
Anmelde-Credits
Neue Konten erhalten Anmelde-Gutschriften für Schulungen. Weitere Informationen finden Sie unter „Abrechnung “.
Echtzeit-Metriken
Während des Trainings können Sie Live-Metriken in drei Unterregistern anzeigen:
graph LR
A[Charts] --> B[Loss Curves]
A --> C[Performance Metrics]
D[Console] --> E[Live Logs]
D --> F[Error Detection]
G[System] --> H[GPU Utilization]
G --> I[Memory & Temp]
style A fill:#2196F3,color:#fff
style D fill:#FF9800,color:#fff
style G fill:#9C27B0,color:#fff
| Unterregisterkarte | Metriken |
|---|---|
| Diagramme | Box/Klasse/DFL-Verlust, mAP50, mAP50, Präzision, Recall |
| Konsole | Live-Trainingsprotokolle mit ANSI-Farben und Fehlererkennung |
| System | GPU , Speicher, Temperatur, CPU, Festplatte |
Automatische Kontrollpunkte
Die Plattform speichert automatisch Checkpoints zu jedem Zeitpunkt. Das beste Modell (höchster mAP) und das endgültige Modell werden immer beibehalten.
Schnellstart
Starten Sie in weniger als einer Minute mit Cloud-Schulungen:
- Erstellen Sie ein Projekt in der Seitenleiste.
- Klicken Sie auf „Neues Modell“.
- Wählen Sie ein Modell, einen Datensatz und GPU aus.
- Klicken Sie auf Training starten
export ULTRALYTICS_API_KEY="your_api_key"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset \
epochs=100 project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
Schnellzugriffe
- Projekte: Organisieren Sie Ihre Modelle und Experimente
- Modelle: Verwalten Sie trainierte Checkpoints
- Cloud-Training: Trainieren Sie auf Cloud-GPUs
FAQ
Wie lange dauert das Training?
Die Trainingszeit hängt ab von:
- Datensatzgröße (Anzahl der Bilder)
- Modellgröße (n, s, m, l, x)
- Anzahl der Epochen
- Ausgewählter GPU-Typ
Ein typischer Trainingslauf mit 1000 Bildern, YOLO26n und 100 Epochen auf RTX PRO 6000 dauert etwa 2 bis 3 Stunden. Kleinere Läufe (500 Bilder, 50 Epochen auf RTX 4090) sind in weniger als einer Stunde abgeschlossen. Detaillierte Schätzungen finden Sie in den Kostenbeispielen.
Kann ich mehrere Modelle gleichzeitig trainieren?
Ja. Die Anzahl der gleichzeitigen Cloud-Trainings hängt von Ihrem Tarif ab: Der kostenlose Tarif erlaubt 3, der Pro-Tarif 10 und der Enterprise-Tarif ist unbegrenzt. Für zusätzliche parallele Trainings nutzen Sie Remote-Trainings von mehreren Rechnern aus.
Was passiert, wenn das Training fehlschlägt?
Wenn das Training fehlschlägt:
- Checkpoints werden bei jeder Epoche gespeichert
- Sie können vom letzten Checkpoint aus fortfahren
- Guthaben werden nur für die abgeschlossene Rechenzeit berechnet
Wie wähle ich die richtige GPU aus?
| Szenario | Empfohlene GPU |
|---|---|
| Die meisten Ausbildungsplätze | RTX PRO 6000 |
| Große Datensätze oder Batch-Größen | H100 SXM oder H200 |
| Budgetbewusst | RTX 4090 |