Zum Inhalt springen

Modelle

Ultralytics Platform bietet umfassendes Modellmanagement für das Training, die Analyse und die Bereitstellung von YOLO-Modellen. Laden Sie vortrainierte Modelle hoch oder trainieren Sie neue direkt auf der Plattform.

Modell hochladen

Laden Sie vorhandene Modellgewichte auf die Plattform hoch:

  1. Navigieren Sie zu Ihrem Projekt
  2. Klicken Sie auf Modell hochladen
  3. Wählen Sie Ihr .pt Datei definiert
  4. Namen und Beschreibung hinzufügen
  5. Klicken Sie auf Hochladen

Unterstützte Modellformate:

FormatErweiterungBeschreibung
PyTorch.ptNatives Ultralytics-Format

Nach dem Hochladen parst die Plattform die Modellmetadaten:

  • Aufgabentyp (detect, segment, pose, obb, classify)
  • Architektur (YOLO26n, YOLO26s usw.)
  • Klassennamen und Anzahl
  • Eingabegröße und Parameter

Modell trainieren

Ein neues Modell direkt auf der Plattform trainieren:

  1. Navigieren Sie zu Ihrem Projekt
  2. Klicken Sie auf Modell trainieren
  3. Datensatz auswählen
  4. Basismodell wählen
  5. Trainingsparameter konfigurieren
  6. Training starten

Siehe Cloud Training für detaillierte Anweisungen.

Modellübersicht

Jede Modellseite zeigt an:

AbschnittInhalt
ÜberblickModell-Metadaten, Aufgabentyp, Architektur
MetrikenTrainingsverlust und Leistungsdiagramme
DiagrammeKonfusionsmatrix, PR-Kurven, F1-Kurven
TestInteraktives Inferenz-Testing
BereitstellungEndpunkt-Erstellung und -Verwaltung
ExportFormatkonvertierung und Download

Trainingsmetriken

Echtzeit- und historische Trainingsmetriken anzeigen:

Verlustkurven

VerlustBeschreibung
BoxVerlust der Bounding-Box-Regression
KlasseKlassifikationsverlust
DFLDistribution Focal Loss

Leistungsmetriken

MetrikBeschreibung
mAP50Mittlere durchschnittliche Präzision bei IoU 0.50
mAP50-95Mittlere durchschnittliche Präzision bei IoU 0.50-0.95
PräzisionVerhältnis der korrekt positiven Vorhersagen
RecallVerhältnis der tatsächlich identifizierten Positiven

Validierungsdiagramme

Nach Abschluss des Trainings detaillierte Validierungsanalyse anzeigen:

Konfusionsmatrix

Interaktive Heatmap, die die Vorhersagegenauigkeit pro Klasse zeigt:

PR/F1-Kurven

Leistungskurven bei verschiedenen Konfidenzschwellenwerten:

KurveBeschreibung
Precision-RecallKompromiss zwischen Präzision und Recall
F1-KonfidenzF1-Score bei verschiedenen Konfidenzniveaus
Präzision-KonfidenzPräzision bei verschiedenen Konfidenzniveaus
Recall-KonfidenzRecall bei verschiedenen Konfidenzniveaus

Modell exportieren

Exportieren Sie Ihr Modell in 17 Bereitstellungsformate:

  1. Navigieren Sie zum Tab Export
  2. Zielformat auswählen
  3. Klicken Sie auf Exportieren
  4. Nach Abschluss herunterladen

Unterstützte Formate (insgesamt 17)

#FormatDateiendungAnwendungsfall
1ONNX.onnxPlattformübergreifend, Web, die meisten Laufzeiten
2TorchScript.torchscriptPyTorch ohne Python
3OpenVINO.xml, .binIntel , GPUs, VPUs
4TensorRT.engineNVIDIA (schnellste Inferenz)
5CoreML.mlpackageApple iOS, macOS, watchOS
6TF Lite.tfliteMobil (Android, iOS), Edge
7TF SavedModelsaved_model/TensorFlow
8TF GraphDef.pbTensorFlow .x
9TF Edge TPU.tfliteGoogle -Geräte
10TF.js.json, .binBrowser-Inferenz
11PaddlePaddle.pdmodelBaidu PaddlePaddle
12NCNN.param, .binMobil (iOS), optimiert
13MNN.mnnAlibaba Mobile Runtime
14RKNN.rknnRockchip-NPUs
15IMX500.imxSony IMX500-Sensor
16Axelera.axeleraAxelera KI-Beschleuniger

Format-Auswahlhilfe

Für NVIDIA : Verwenden Sie TensorRT für maximale Geschwindigkeit

Für Intel : Verwenden Sie OpenVINO für Intel , -GPUs und -VPUs

Für Apple-Geräte: Verwenden Sie CoreML für iOS, macOS, Apple Silicon

Für Android: Verwenden Sie TF oder NCNN für beste Leistung.

Für Webbrowser: Verwenden Sie TF.js oder ONNX (mit ONNX Web)

Für Edge-Geräte: Verwenden Sie TF TPU für Coral und RKNN für Rockchip.

Für allgemeine Kompatibilität: Verwenden Sie ONNX – funktioniert mit den meisten Inferenz-Laufzeitumgebungen

Exportzeit

Die Exportzeit variiert je nach Format. TensorRT-Exporte können aufgrund der Engine-Optimierung mehrere Minuten dauern.

Dataset-Verknüpfung

Modelle können mit ihrem Quelldatensatz verknüpft werden:

  • Anzeigen, welcher Datensatz für das Training verwendet wurde
  • Auf Datensatz von der Modellseite zugreifen
  • Datenherkunft verfolgen

Beim Training mit Plattform-Datensätzen unter Verwendung des ul:// URI-Formats erfolgt die Verknüpfung automatisch.

Sichtbarkeitseinstellungen

Kontrollieren Sie, wer Ihr Modell sehen kann:

EinstellungBeschreibung
PrivatNur Sie können zugreifen
ÖffentlichJeder kann auf der Explore-Seite anzeigen

Um die Sichtbarkeit zu ändern:

  1. Modell-Aktionsmenü öffnen
  2. Klicken Sie auf Bearbeiten
  3. Sichtbarkeit umschalten
  4. Klicken Sie auf Speichern

Modell löschen

Entfernen Sie ein Modell, das Sie nicht mehr benötigen:

  1. Modell-Aktionsmenü öffnen
  2. Klicken Sie auf Löschen
  3. Löschung bestätigen

Papierkorb und Wiederherstellen

Gelöschte Modelle werden für 30 Tage in den Papierkorb verschoben. Wiederherstellung über Einstellungen > Papierkorb.

FAQ

Welche Modellarchitekturen werden unterstützt?

Die Ultralytics Platform unterstützt alle YOLO-Architekturen:

  • YOLO26: Varianten n, s, m, l, x (empfohlen)
  • YOLO11: n, s, m, l, x Varianten
  • YOLOv10: Legacy-Support
  • YOLOv8: Legacy-Support
  • YOLOv5: Legacy-Support

Kann ich mein trainiertes Modell herunterladen?

Ja, laden Sie Ihre Modellgewichte von der Modellseite herunter:

  1. Klicken Sie auf das Download-Symbol
  2. Format auswählen (original .pt oder exportiert)
  3. Download startet automatisch

Wie vergleiche ich Modelle projektübergreifend?

Derzeit ist der Modellvergleich innerhalb von Projekten möglich. Um Modelle projektübergreifend zu vergleichen:

  1. Modelle in ein einzelnes Projekt übertragen, oder
  2. Metriken exportieren und extern vergleichen

Wie groß ist die maximale Modellgröße?

Es gibt keine strikte Begrenzung, aber sehr große Modelle (>2GB) können längere Upload- und Verarbeitungszeiten aufweisen.

Kann ich vortrainierte Modelle feinabstimmen?

Ja! Laden Sie ein vortrainiertes Modell hoch und beginnen Sie dann das Training ab diesem Checkpoint mit Ihrem Datensatz. Die Plattform verwendet das hochgeladene Modell automatisch als Ausgangspunkt.



📅 Erstellt vor 20 Tagen ✏️ Aktualisiert vor 14 Tagen
glenn-jocher

Kommentare