Zum Inhalt springen

Modelltraining

Die Ultralytics Platform bietet umfassende Tools für das Training von YOLO-Modellen, von der Organisation von Experimenten bis zur Ausführung von Cloud-Trainingsjobs mit Echtzeit-Metrik-Streaming.

Überblick

Der Abschnitt Training hilft Ihnen dabei:

  • Modelle zur einfacheren Verwaltung in Projekten organisieren
  • Trainieren Sie auf Cloud-GPUs mit einem einzigen Klick.
  • Überwachen Sie Echtzeit-Metriken während des Trainings.
  • Vergleichen Sie die Modellleistung über Experimente hinweg.
  • Exportieren Sie in über 17 Bereitstellungsformate (siehe unterstützte Formate)

Übersicht über die Ultralytics

Workflow

graph LR
    A[📁 Project] --> B[⚙️ Configure]
    B --> C[🚀 Train]
    C --> D[📈 Monitor]
    D --> E[📦 Export]

    style A fill:#4CAF50,color:#fff
    style B fill:#2196F3,color:#fff
    style C fill:#FF9800,color:#fff
    style D fill:#9C27B0,color:#fff
    style E fill:#00BCD4,color:#fff
PhaseBeschreibung
ProjektErstellen Sie einen Arbeitsbereich, um verwandte Modelle zu organisieren.
KonfigurierenDatensatz, Basismodell und Trainingsparameter auswählen
TrainierenAusführen auf Cloud-GPUs oder Ihrer lokalen Hardware.
ÜberwachenEchtzeit-Verlustkurven und Metriken anzeigen.
ExportIn über 17 Bereitstellungsformate konvertieren (Details)

Trainingsoptionen

Ultralytics Platform unterstützt mehrere Trainingsansätze:

MethodeBeschreibungAm besten geeignet für
Cloud-TrainingTrainieren Sie auf Ultralytics -GPUsKeine lokale GPU, Skalierbarkeit
Lokale SchulungLokal trainieren, Metriken an die Plattform streamenVorhandene Hardware, Datenschutz
Colab-TrainingVerwenden Sie Google mit PlattformintegrationKostenloser GPU-Zugang

GPU-Optionen

Verfügbare GPUs für Cloud-Training auf Ultralytics :

GPUVRAMKosten/StundeAm besten geeignet für
RTX 2000 Ada16 GB$0.24Kleine Datensätze, Testen
RTX A450020 GB$0.24Kleine bis mittlere Datensätze
RTX A500024 GB$0.26Mittlere Datensätze
RTX 4000 Ada20 GB$0.38Mittlere Datensätze
L424 GB$0.39Optimierte Schlussfolgerung
A4048 GB$0.40Größere Losgrößen
RTX 309024 GB$0.46Hervorragendes Preis-Leistungs-Verhältnis
RTX A600048 GB$0.49Große Modelle
RTX 409024 GB$0.59Bestes Preis-Leistungs-Verhältnis
RTX 6000 Ada48 GB$0.77Großes Batch-Training
L40S48 GB$0.86Großes Batch-Training
RTX 509032 GB$0.89Neueste Generation
L4048 GB$0.99Große Modelle
A100 PCIe80 GB$1.39Produktionsschulung
A100 SXM80 GB$1.49Produktionsschulung
RTX PRO 600096 GB$1.89Empfohlene Standardeinstellung
H100 PCIe80 GB$2.39Hochleistungstraining
H100 SXM80 GB$2.69Schnellstes Training
H100 NVL94 GB$3.07Maximale Leistung
H200 NVL143 GB$3.39Maximaler Speicher
H200 SXM141 GB$3.59Maximale Leistung
B200180 GB$4.99Größte Modelle

Anmelde-Credits

Neue Konten erhalten Anmelde-Gutschriften für Schulungen. Weitere Informationen finden Sie unter „Abrechnung “.

Echtzeit-Metriken

Während des Trainings können Sie Live-Metriken in drei Unterregistern anzeigen:

graph LR
    A[Charts] --> B[Loss Curves]
    A --> C[Performance Metrics]
    D[Console] --> E[Live Logs]
    D --> F[Error Detection]
    G[System] --> H[GPU Utilization]
    G --> I[Memory & Temp]

    style A fill:#2196F3,color:#fff
    style D fill:#FF9800,color:#fff
    style G fill:#9C27B0,color:#fff
UnterregisterkarteMetriken
DiagrammeBox/Klasse/DFL-Verlust, mAP50, mAP50, Präzision, Recall
KonsoleLive-Trainingsprotokolle mit ANSI-Farben und Fehlererkennung
SystemGPU , Speicher, Temperatur, CPU, Festplatte

Automatische Kontrollpunkte

Die Plattform speichert automatisch Checkpoints zu jedem Zeitpunkt. Das beste Modell (höchster mAP) und das endgültige Modell werden immer beibehalten.

Schnellstart

Starten Sie in weniger als einer Minute mit Cloud-Schulungen:

  1. Erstellen Sie ein Projekt in der Seitenleiste.
  2. Klicken Sie auf „Neues Modell“.
  3. Wählen Sie ein Modell, einen Datensatz und GPU aus.
  4. Klicken Sie auf Training starten
export ULTRALYTICS_API_KEY="your_api_key"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset \
  epochs=100 project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)
  • Projekte: Organisieren Sie Ihre Modelle und Experimente
  • Modelle: Verwalten Sie trainierte Checkpoints
  • Cloud-Training: Trainieren Sie auf Cloud-GPUs

FAQ

Wie lange dauert das Training?

Die Trainingszeit hängt ab von:

  • Datensatzgröße (Anzahl der Bilder)
  • Modellgröße (n, s, m, l, x)
  • Anzahl der Epochen
  • Ausgewählter GPU-Typ

Ein typischer Trainingslauf mit 1000 Bildern, YOLO26n und 100 Epochen auf RTX PRO 6000 dauert etwa 2 bis 3 Stunden. Kleinere Läufe (500 Bilder, 50 Epochen auf RTX 4090) sind in weniger als einer Stunde abgeschlossen. Detaillierte Schätzungen finden Sie in den Kostenbeispielen.

Kann ich mehrere Modelle gleichzeitig trainieren?

Ja. Die Anzahl der gleichzeitigen Cloud-Trainings hängt von Ihrem Tarif ab: Der kostenlose Tarif erlaubt 3, der Pro-Tarif 10 und der Enterprise-Tarif ist unbegrenzt. Für zusätzliche parallele Trainings nutzen Sie Remote-Trainings von mehreren Rechnern aus.

Was passiert, wenn das Training fehlschlägt?

Wenn das Training fehlschlägt:

  1. Checkpoints werden bei jeder Epoche gespeichert
  2. Sie können vom letzten Checkpoint aus fortfahren
  3. Guthaben werden nur für die abgeschlossene Rechenzeit berechnet

Wie wähle ich die richtige GPU aus?

SzenarioEmpfohlene GPU
Die meisten AusbildungsplätzeRTX PRO 6000
Große Datensätze oder Batch-GrößenH100 SXM oder H200
BudgetbewusstRTX 4090


📅 Erstellt vor 1 Monat ✏️ Aktualisiert vor 5 Tagen
glenn-jochersergiuwaxmann

Kommentare