Zum Inhalt springen

Modelltraining

Die Ultralytics Platform bietet umfassende Tools für das Training von YOLO-Modellen, von der Organisation von Experimenten bis zur Ausführung von Cloud-Trainingsjobs mit Echtzeit-Metrik-Streaming.



Ansehen: Erste Schritte mit Ultralytics – Train

Überblick

Der Abschnitt Training hilft Ihnen dabei:

  • Modelle in Projekte organisieren für eine einfachere Verwaltung
  • Trainieren Sie auf Cloud-GPUs mit einem einzigen Klick.
  • Überwachen Sie Echtzeit-Metriken während des Trainings.
  • Vergleichen Sie die Modellleistung über Experimente hinweg.
  • Export in über 17 Bereitstellungsformate (siehe unterstützte Formate)

Übersicht über die Ultralytics

Workflow

graph LR
    A[📁 Project] --> B[⚙️ Configure]
    B --> C[🚀 Train]
    C --> D[📈 Monitor]
    D --> E[📦 Export]

    style A fill:#4CAF50,color:#fff
    style B fill:#2196F3,color:#fff
    style C fill:#FF9800,color:#fff
    style D fill:#9C27B0,color:#fff
    style E fill:#00BCD4,color:#fff
PhaseBeschreibung
ProjektErstellen Sie einen Arbeitsbereich, um verwandte Modelle zu organisieren.
KonfigurierenDatensatz, Basismodell und Trainingsparameter auswählen
TrainierenAusführen auf Cloud-GPUs oder Ihrer lokalen Hardware.
ÜberwachenEchtzeit-Verlustkurven und Metriken anzeigen.
ExportIn über 17 Bereitstellungsformate konvertieren (Details)

Trainingsoptionen

Ultralytics Platform unterstützt mehrere Trainingsansätze:

MethodeBeschreibungAm besten geeignet für
Cloud-TrainingTrainieren Sie auf Ultralytics -GPUsKeine lokale GPU, Skalierbarkeit
Lokale SchulungLokal trainieren, Metriken an die Plattform streamenVorhandene Hardware, Datenschutz
Colab-TrainingVerwenden Sie Google mit PlattformintegrationKostenloser GPU-Zugang

GPU-Optionen

Verfügbare GPUs für Cloud-Training auf Ultralytics Cloud:

GPUGenerationVRAMKosten/StundeAm besten geeignet für
RTX 2000 AdaAda16 GB$0.24Kleine Datensätze, zum Testen
RTX A4500Ampere20 GB$0.25Kleine bis mittlere Datensätze
RTX 4000 AdaAda20 GB$0.26Mittlere Datensätze
RTX A5000Ampere24 GB$0.27Mittlere Datensätze
L4Ada24 GB$0.39Für Inferenz optimiert
A40Ampere48 GB$0.40Größere Batch-Größen
RTX 3090Ampere24 GB$0.46Allgemeines Training
RTX A6000Ampere48 GB$0.49Große Modelle
RTX PRO 4500Blackwell32 GB$0.54Hervorragendes Preis-Leistungs-Verhältnis
RTX 4090Ada24 GB$0.59Bestes Preis-Leistungs-Verhältnis
RTX 6000 AdaAda48 GB$0.77Training mit großen Batches
L40SAda48 GB$0.86Training mit großen Batches
RTX 5090Blackwell32 GB$0.89Neueste Consumer-Generation
L40Ada48 GB$0.99Große Modelle
A100 PCIeAmpere80 GB$1.39Produktionstraining
A100 SXMAmpere80 GB$1.49Produktionstraining
RTX PRO 6000Blackwell96 GB$1.69Empfohlener Standard
H100 PCIeHopper80 GB$2.39Hochleistungs-Training
H100 SXMHopper80 GB$2.69Schnellstes Training
H100 NVLHopper94 GB$3.07Maximale Leistung
H200 NVLHopper143 GB$3.39Maximaler Speicher (Pro+)
H200 SXMHopper141 GB$3.59Maximale Leistung (Pro+)
B200Blackwell180 GB$4.99Größte Modelle (Pro+)

Zugriff auf GPU

Für die GPUs H200 und B200 ist ein Pro- oder Enterprise-Tarif erforderlich. Alle anderen GPUs sind in allen Tarifen verfügbar, einschließlich des kostenlosen Tarifs.

Anmelde-Credits

Neue Konten erhalten Anmelde-Gutschriften für Schulungen. Weitere Informationen finden Sie unter „Abrechnung “.

Echtzeit-Metriken

Während des Trainings Live-Metriken über drei Unterregisterkarten anzeigen:

graph LR
    A[Charts] --> B[Loss Curves]
    A --> C[Performance Metrics]
    D[Console] --> E[Live Logs]
    D --> F[Error Detection]
    G[System] --> H[GPU Utilization]
    G --> I[Memory & Temp]

    style A fill:#2196F3,color:#fff
    style D fill:#FF9800,color:#fff
    style G fill:#9C27B0,color:#fff
UnterregisterkarteMetriken
DiagrammeBox-/Klassen-/DFL-Verlust, mAP50, mAP50-95, Precision, Recall
KonsoleLive-Trainingsprotokolle mit ANSI-Farben und Fehlererkennung
SystemGPU , Speicher, Temperatur, CPU, Festplatte

Automatische Checkpoints

Die Plattform speichert automatisch Checkpoints zu jedem Zeitpunkt. Das beste Modell (höchster mAP) und das endgültige Modell werden immer beibehalten.

Schnellstart

Starten Sie in weniger als einer Minute mit Cloud-Schulungen:

  1. Erstellen Sie ein Projekt in der Seitenleiste
  2. Klicken Sie auf Neues Modell
  3. Wählen Sie ein Modell, einen Datensatz und GPU aus.
  4. Klicken Sie auf Training starten
export ULTRALYTICS_API_KEY="YOUR_API_KEY"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset \
  epochs=100 project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)
  • Projekte: Organisieren Sie Ihre Modelle und Experimente
  • Modelle: Verwalten Sie trainierte Checkpoints
  • Cloud-Training: Trainieren Sie auf Cloud-GPUs

FAQ

Wie lange dauert das Training?

Die Trainingszeit hängt ab von:

  • Datensatzgröße (Anzahl der Bilder)
  • Modellgröße (n, s, m, l, x)
  • Anzahl der Epochen
  • Ausgewählter GPU-Typ

Ein typischer Trainingslauf mit 1000 Bildern, YOLO26n, 100 Epochen auf einer RTX PRO 6000 dauert etwa 2-3 Stunden. Kleinere Läufe (500 Bilder, 50 Epochen auf einer RTX 4090) sind in weniger als einer Stunde abgeschlossen. Detaillierte Schätzungen finden Sie unter Kostenbeispiele.

Kann ich mehrere Modelle gleichzeitig trainieren?

Ja. Die Anzahl der gleichzeitigen Cloud-Trainings hängt von Ihrem Tarif ab: Der kostenlose Tarif erlaubt 3, der Pro-Tarif 10 und der Enterprise-Tarif ist unbegrenzt. Für zusätzliche parallele Trainings nutzen Sie Remote-Trainings von mehreren Rechnern aus.

Was passiert, wenn das Training fehlschlägt?

Wenn das Training fehlschlägt:

  1. Checkpoints werden bei jeder Epoche gespeichert
  2. Sie können vom letzten Checkpoint aus fortfahren
  3. Guthaben werden nur für die abgeschlossene Rechenzeit berechnet

Wie wähle ich die richtige GPU aus?

SzenarioEmpfohlene GPU
Die meisten AusbildungsplätzeRTX PRO 6000
Große Datensätze oder Batch-GrößenH100 SXM oder H200 (Pro+)
BudgetbewusstRTX 4090


📅 Erstellt vor 2 Monaten ✏️ Aktualisiert vor 10 Tagen
glenn-jocherRizwanMunawarsergiuwaxmann

Kommentare