Zum Inhalt springen

Ultralytics Plattform

Ultralytics Platform ist eine umfassende End-to-End-Plattform für Computer Vision, die den gesamten ML-Workflow von der Datenvorbereitung bis zur Modellbereitstellung optimiert. Entwickelt für Teams und Einzelpersonen, die produktionsreife Computer-Vision-Lösungen ohne die Komplexität der Infrastruktur benötigen.

Screenshot des Ultralytics Plattform-Datensatzes

Was ist die Ultralytics Platform?

Die Ultralytics Platform wurde entwickelt, um fragmentierte ML-Tools durch eine einheitliche Lösung zu ersetzen. Sie vereint die Funktionen von:

  • Roboflow – Datenmanagement und -annotation
  • Weights & Biases – Experiment-Tracking
  • SageMaker – Cloud-Training
  • HuggingFace – Modell-Deployment
  • Arize – Monitoring

Alles in einer Plattform mit nativer Unterstützung für YOLO26- und YOLO11-Modelle.

Workflow: Hochladen → Annotieren → Trainieren → Exportieren → Bereitstellen

Die Plattform bietet einen End-to-End-Workflow:

graph LR
    subgraph Data["📁 Data"]
        A[Upload] --> B[Annotate]
        B --> C[Analyze]
    end
    subgraph Train["🚀 Train"]
        D[Configure] --> E[Train on GPU]
        E --> F[View Metrics]
    end
    subgraph Deploy["🌐 Deploy"]
        G[Export] --> H[Deploy Endpoint]
        H --> I[Monitor]
    end
    Data --> Train --> Deploy
PhaseFunktionen
HochladenBilder (50 MB), Videos (1 GB), ZIP-Archive (10 GB) mit automatischer Verarbeitung
AnnotierenManuelle Tools, SAM Smart Annotation, YOLO Auto-Labeling für alle 5 Aufgabentypen (siehe unterstützte Aufgaben)
TrainierenCloud-GPUs (19 kostenlos + 3 Pro-exklusiv), Echtzeit-Metriken, Projektorganisation
Export17 Bereitstellungsformate (ONNX, TensorRT, CoreML, TFLite usw.; siehe unterstützte Formate)
Bereitstellung43 globale Regionen mit dedizierten Endpunkten, Auto-Scaling, Monitoring

Was Sie tun können:

  • Hochladen von Bildern, Videos und ZIP-Archiven zur Erstellung von Trainingsdatensätzen
  • Visualisieren Sie Annotationen mit interaktiven Overlays für alle 5 YOLO-Aufgabentypen (siehe unterstützte Aufgaben)
  • Modelle auf Cloud-GPUs (19 kostenlos, 22 mit Pro) mit Echtzeit-Metriken trainieren
  • Exportieren Sie in 17 Bereitstellungsformate (ONNX, TensorRT, CoreML, TFLite usw.)
  • Bereitstellen in 43 globale Regionen mit dedizierten One-Click-Endpunkten
  • Überwachen von Trainingsfortschritt, Bereitstellungszustand und Nutzungsmetriken
  • Kollaborieren durch die Veröffentlichung von Projekten und Datensätzen für die Community

Multi-Region-Infrastruktur

Ihre Daten bleiben in Ihrer Region. Die Ultralytics Platform betreibt Infrastruktur in drei globalen Regionen:

RegionLabelStandortAm besten geeignet für
USAAmerikaIowa, USANutzer in Amerika, am schnellsten für Amerika
EUEuropa, Mittlerer Osten & AfrikaBelgien, EuropaEuropäische Nutzer, DSGVO-Konformität
APAsien-PazifikHongkong, Asien-PazifikNutzer im Asien-Pazifik-Raum, niedrigste APAC-Latenz

Sie wählen Ihre Region während des Onboardings, und all Ihre Daten, Modelle und Deployments verbleiben in dieser Region.

Region ist dauerhaft

Ihre Datenregion kann nach der Kontoerstellung nicht mehr geändert werden. Während des Onboardings misst die Plattform die Latenz zu jeder Region und empfiehlt die nächstgelegene. Wählen Sie sorgfältig.

Hauptmerkmale

Datenvorbereitung

  • Dataset-Management: Hochladen von Bildern, Videos oder ZIP-Archiven mit automatischer Verarbeitung
  • Annotations-Editor: Manuelle Annotation für alle 5 YOLO-Aufgabentypen (detect, segment, pose, obb, classify; siehe unterstützte Aufgaben)
  • Skelett-Vorlagen: Integrierte (Person, Hand, Gesicht, Hund, Box) und benutzerdefinierte Skelett-Vorlagen für die Pose-Annotation mit einem Klick
  • SAM Smart Annotation: Klickbasierte intelligente Annotation mit 5 Modellen — SAM 2.1 (Tiny, Small, Base, Large) und dem neuen SAM 3 für höchste Genauigkeit. Wechseln Sie Modelle pro Bild über die Annotations-Toolbar.
  • Auto-Annotation: Verwenden Sie trainierte Modelle, um neue Daten vorab zu labeln
  • Datensatz-Versionierung: Erstellen Sie nummerierte NDJSON-Snapshots mit Beschreibungen für reproduzierbares Training
  • Statistiken: Klassenverteilung, Standort-Heatmaps und Dimensionsanalyse
graph LR
    A[Upload ZIP/Images/Video] --> B[Auto-Process]
    B --> C[Browse & Filter]
    C --> D{Annotate}
    D --> E[Manual Tools]
    D --> F[SAM Smart]
    D --> G[YOLO Auto-Label]
    E --> H[Train-Ready Dataset]
    F --> H
    G --> H

Unterstützte Aufgabentypen

Der Annotations-Editor unterstützt alle 5 YOLO-Aufgabentypen: detect (Bounding Boxes), segment (Polygone), pose (Keypoints), obb (orientierte Boxen) und classify (Bild-Labels). Jeder Aufgabentyp verfügt über spezielle Zeichenwerkzeuge und Tastenkombinationen.

Modelltraining

  • Cloud-Training: Trainieren Sie auf Cloud-GPUs (19 kostenlos, 22 mit Pro) mit Echtzeit-Metriken
  • Remote-Training: Trainieren Sie überall und streamen Sie Metriken an die Plattform (im W&B-Stil)
  • Projektorganisation: Gruppieren Sie verwandte Modelle, vergleichen Sie Experimente, tracken Sie Aktivitäten
  • 17 Exportformate: ONNX, TensorRT, CoreML, TFLite und mehr (siehe unterstützte Formate)

Ultralytics Plattform Projekt-Screenshot

Sie können Modelle entweder über die Web-Benutzeroberfläche (Cloud Training) oder von Ihrem eigenen Rechner (Remote Training) trainieren:

  1. Navigieren Sie zu Ihrem Projekt
  2. Klicken Sie Train Model
  3. Wählen Sie Datensatz, Modell, GPU und Epochen aus
  4. Überwachen Sie Echtzeit-Verlustkurven und -Metriken
# Install ultralytics
pip install "ultralytics>=8.4.14"

# Set your API key
export ULTRALYTICS_API_KEY="your_api_key"

# Train and stream metrics to the platform
yolo train model=yolo26n.pt data=coco.yaml epochs=100 project=username/my-project name=exp1
import os

from ultralytics import YOLO

os.environ["ULTRALYTICS_API_KEY"] = "your_api_key"

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="exp1",
)
# Metrics stream to Platform automatically

Bereitstellung

  • Inferenz-Tests: Testen Sie Modelle direkt im Browser mit benutzerdefinierten Bildern
  • Dedizierte Endpunkte: Bereitstellung in 43 globalen Regionen mit Auto-Scaling
  • Monitoring: Echtzeit-Metriken, Anfrageprotokolle und Performance-Dashboards
graph LR
    A[Trained Model] --> B{Action}
    B --> C[Browser Predict]
    B --> D[Export Format]
    B --> E[Deploy Endpoint]
    D --> F[ONNX / TensorRT / CoreML / TFLite / ...]
    E --> G[43 Global Regions]
    G --> H[API Endpoint URL]
    H --> I[Monitor & Scale]

Nach der Bereitstellung können Sie Ihren Endpunkt aus jeder Sprache aufrufen:

import requests

url = "https://your-endpoint-url/predict"
headers = {"Authorization": "Bearer your_api_key"}

with open("image.jpg", "rb") as f:
    response = requests.post(url, headers=headers, files={"file": f})

print(response.json())
curl -X POST "https://your-endpoint-url/predict" \
  -H "Authorization: Bearer your_api_key" \
  -F "file=@image.jpg"
const form = new FormData();
form.append("file", fileInput.files[0]);

const response = await fetch("https://your-endpoint-url/predict", {
    method: "POST",
    headers: { Authorization: "Bearer your_api_key" },
    body: form,
});

const results = await response.json();
console.log(results);

Kontoverwaltung

  • Teams & Organisationen: Arbeiten Sie mit Teammitgliedern zusammen, verwalten Sie Rollen und Einladungen
  • API-Schlüssel: Sichere Schlüsselverwaltung für Remote-Training und API-Zugriff
  • Guthaben & Abrechnung: Pay-as-you-go-Training mit transparenter Preisgestaltung
  • Aktivitäts-Feed: trackt alle Kontoereignisse und -aktionen
  • Papierkorb & Wiederherstellung: 30-tägiges Soft-Delete mit Elementwiederherstellung
  • DSGVO-Konformität: Datenexport und Kontolöschung

Plankategorien

MerkmalKostenlosPro (29 $/Monat)Enterprise
Anmeldeguthaben$5 / $25*-Benutzerdefiniert
Monatliches Guthaben-$30/Platz/MonatBenutzerdefiniert
Modelle100500Unbegrenzt
Gleichzeitige Trainings310Unbegrenzt
Bereitstellungen310Unbegrenzt
Speicher100 GB500 GBUnbegrenzt
Cloud-GPU-Typen1922 (inkl. H200/B200)22
Teams-Bis zu 5 MitgliederBis zu 50
SupportCommunityPrioritätDediziert

*$5 bei der Anmeldung, oder $25 mit einer verifizierten Firmen-/Arbeits-E-Mail.

Beginnen Sie mit diesen Ressourcen:

FAQ

Wie fange ich mit der Ultralytics Platform an?

Um mit Ultralytics Platform zu beginnen:

  1. Registrieren: Erstellen Sie ein Konto unter platform.ultralytics.com
  2. Region auswählen: Wählen Sie Ihre Datenregion (USA, EU oder AP) während des Onboardings
  3. Datensatz hochladen: Navigieren Sie zum Bereich Datensätze, um Ihre Daten hochzuladen
  4. Modell trainieren: Erstellen Sie ein Projekt und beginnen Sie mit dem Training auf Cloud-GPUs
  5. Bereitstellen: Testen Sie Ihr Modell und stellen Sie es auf einem dedizierten Endpunkt bereit

Eine detaillierte Anleitung finden Sie auf der Quickstart-Seite.

Welche Vorteile bietet die Ultralytics Platform?

Ultralytics Platform bietet:

  • Vereinheitlichter Workflow: Daten, Training und Bereitstellung an einem Ort
  • Multi-Region: Datenresidenz in den Regionen USA, EU oder AP
  • No-Code-Training: Trainieren Sie fortschrittliche YOLO-Modelle ohne Code zu schreiben
  • Echtzeit-Metriken: Streamen Sie den Trainingsfortschritt und überwachen Sie Bereitstellungen
  • 43 Bereitstellungsregionen: Stellen Sie Modelle weltweit nah an Ihren Nutzern bereit
  • 5 Aufgabentypen: Unterstützung für detection, segmentation, pose, obb und classification (siehe Aufgaben-Dokumentation)
  • KI-gestützte Annotation: SAM und automatische Beschriftung zur Beschleunigung der Datenvorbereitung

Welche GPU-Optionen stehen für das Cloud-Training zur Verfügung?

Ultralytics Platform unterstützt verschiedene GPU-Typen für das Cloud-Training:

GPUVRAMKosten/StundeAm besten geeignet für
RTX 2000 Ada16 GB$0.24Kleine Datensätze, zum Testen
RTX A450020 GB$0.24Kleine bis mittlere Datensätze
RTX A500024 GB$0.26Mittlere Datensätze
RTX 4000 Ada20 GB$0.38Mittlere Datensätze
L424 GB$0.39Für Inferenz optimiert
A4048 GB$0.40Größere Batch-Größen
RTX 309024 GB$0.46Allgemeines Training
RTX A600048 GB$0.49Große Modelle
RTX 409024 GB$0.59Hervorragendes Preis-Leistungs-Verhältnis
RTX 6000 Ada48 GB$0.77Training mit großen Batches
L40S48 GB$0.86Training mit großen Batches
RTX 509032 GB$0.89Neueste Generation
L4048 GB$0.99Große Modelle
A100 PCIe80 GB$1.39Produktionstraining
A100 SXM80 GB$1.49Produktionstraining
RTX PRO 600096 GB$1.89Empfohlener Standard
H100 PCIe80 GB$2.39Schnellstes Training
H100 SXM80 GB$2.69Schnellstes Training
H100 NVL94 GB$3.07Training mit hohem Speicherbedarf
H200 NVL143 GB$3.39Maximaler Speicher (Pro+)
H200 SXM141 GB$3.59Maximale Leistung (Pro+)
B200180 GB$4.99Größte Modelle (Pro+)

Siehe Cloud-Training für vollständige Preisgestaltung und GPU-Optionen.

Wie funktioniert Remote-Training?

Sie können Modelle auf Ihrer eigenen Hardware trainieren und Echtzeit-Metriken an die Plattform streamen, ähnlich wie bei Weights & Biases.

Anforderung an die Paketversion

Für die Plattformintegration ist ultralytics>=8.4.14 erforderlich. Niedrigere Versionen funktionieren NICHT mit der Plattform.

pip install "ultralytics>=8.4.14"
# Set your API key
export ULTRALYTICS_API_KEY="your_api_key"

# Train with project/name to stream metrics
yolo train model=yolo26n.pt data=coco.yaml epochs=100 project=username/my-project name=exp1
import os

from ultralytics import YOLO

os.environ["ULTRALYTICS_API_KEY"] = "your_api_key"

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="exp1",
)
# Train using a Platform dataset directly
export ULTRALYTICS_API_KEY="your_api_key"

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 project=username/my-project name=exp1

Weitere Details zum Remote-Training finden Sie unter Cloud Training.

Welche Annotationstools stehen zur Verfügung?

Die Plattform umfasst einen voll ausgestatteten Annotationseditor, der Folgendes unterstützt:

  • Manuelle Werkzeuge: Bounding Boxes, Polygone, Keypoints mit Skelett-Vorlagen, orientierte Boxes, Klassifizierung
  • Skelett-Vorlagen: Platzieren Sie alle Keypoints gleichzeitig mit integrierten (Person, Hand, Gesicht, Hund, Box) oder benutzerdefinierten Vorlagen
  • SAM Smart Annotation: Klicken Sie, um präzise Masken zu generieren — wählen Sie aus SAM 2.1 Tiny/Small/Base/Large oder dem neuen SAM 3 über den Modell-Auswähler der Symbolleiste
  • Tastenkombinationen: Effiziente Workflows mit Hotkeys
TastenkombinationAktion
VModus auswählen
SSAM Smart-Annotation-Modus
AAuto-Annotationsmodus
1 - 9Klasse nach Nummer auswählen
DeleteAusgewählte Annotation löschen
Ctrl+ZRückgängig
Ctrl+YWiederherstellen
EscapeAktuelle Aktion abbrechen

Die vollständige Anleitung finden Sie unter Annotation.

Welche Exportformate werden unterstützt?

Die Plattform unterstützt 17 Bereitstellungsformate:

FormatDateierweiterungAnwendungsfall
ONNX.onnxPlattformübergreifende Bereitstellung
TorchScript.torchscriptC++-Bereitstellung
OpenVINO_openvino_modelIntel-Hardware
TensorRT.engineNVIDIA GPU-Inferenz
CoreML.mlpackageApple-Geräte
TFLite.tfliteMobile/Edge-Geräte
TF SavedModel_saved_modelTensorFlow-Ökosystem
TF GraphDef.pbTensorFlow Legacy
PaddlePaddle_paddle_modelBaidu-Ökosystem
NCNN_ncnn_modelMobil (Android/ARM)
Edge TPU_edgetpu.tfliteGoogle Coral-Geräte
TF.js_web_modelBrowser-Bereitstellung
MNN.mnnAlibaba mobil
RKNN_rknn_modelRockchip NPU
IMX500_imx_modelSony IMX500 Sensor
Axelera_axelera_modelAxelera AI-Beschleuniger
ExecuTorch_executorch_modelPyTorch mobil

Siehe Modell-Export, den Leitfaden zum Exportmodus und den Integrationsindex für formatspezifische Optionen.

Fehlerbehebung

Probleme mit Datensätzen

ProblemLösung
Datensatz wird nicht verarbeitetÜberprüfen Sie, ob das Dateiformat unterstützt wird (JPEG, PNG, WebP usw.). Maximale Dateigröße: Bilder 50 MB, Videos 1 GB, ZIP 10 GB
Fehlende AnnotationenVergewissern Sie sich, dass die Labels in YOLO-Format mit .txt Dateien, die den Bilddateinamen entsprechen
„Trainings-Split erforderlich“Hinzufügen train/ Ordner Ihrer Datensatzstruktur vorhanden sind, oder erstellen Sie Splits in Datensatzeinstellungen
Klassennamen undefiniertFügen Sie ein data.yaml Datei mit names: Liste (siehe YOLO-Format), oder definieren Sie Klassen in den Datensatzeinstellungen

Trainingsprobleme

ProblemLösung
Training startet nichtGuthaben in Einstellungen > Abrechnung prüfen. Positives Guthaben erforderlich.
SpeicherfehlerReduzieren Sie die Batch-Größe, verwenden Sie ein kleineres Modell (n/s) oder wählen Sie eine GPU mit mehr VRAM.
Schlechte MetrikenÜberprüfen Sie die Dataset-Qualität, erhöhen Sie die Epochen, versuchen Sie Datenaugmentation, verifizieren Sie die Klassenbalance.
Training langsamWählen Sie eine schnellere GPU, reduzieren Sie die Bildgröße, stellen Sie sicher, dass das Dataset keinen Engpass darstellt.

Bereitstellungsprobleme

ProblemLösung
Endpunkt antwortet nichtEndpunktstatus prüfen (Bereit vs. Gestoppt). Kaltstart kann 5-15 Sekunden dauern.
401 Nicht autorisiertVergewissern Sie sich, dass der API-Schlüssel korrekt ist und die erforderlichen Berechtigungen besitzt.
Langsame InferenzÜberprüfen Sie die Modellgröße, erwägen Sie den TensorRT-Export, wählen Sie eine näher gelegene Region.
Export fehlgeschlagenEinige Formate erfordern spezifische Modellarchitekturen. Versuchen Sie ONNX für die breiteste Kompatibilität.

Häufig gestellte Fragen

Kann ich meinen Benutzernamen nach der Registrierung ändern?

Nein, Benutzernamen sind permanent und können nicht geändert werden. Wählen Sie sorgfältig bei der Registrierung.

Kann ich meine Datenregion ändern?

Nein, die Datenregion wird bei der Registrierung ausgewählt und kann nicht geändert werden. Um die Region zu wechseln, erstellen Sie ein neues Konto und laden Sie Ihre Daten erneut hoch.

Wie erhalte ich mehr Credits?

Gehen Sie zu Einstellungen > Abrechnung > Credits hinzufügen. Kaufen Sie Credits von 5 $ bis 1000 $. Gekaufte Credits verfallen nie.

Was passiert, wenn das Training fehlschlägt?

Ihnen wird nur die abgeschlossene Rechenzeit berechnet. Checkpoints werden gespeichert, und Sie können das Training fortsetzen.

Kann ich mein trainiertes Modell herunterladen?

Ja, klicken Sie auf das Download-Symbol auf jeder Modellseite, um die .pt Datei oder exportierte Formate herunterzuladen.

Wie teile ich meine Arbeit öffentlich?

Bearbeiten Sie Ihre Projekt- oder Datensatz-Einstellungen und schalten Sie die Sichtbarkeit auf „Öffentlich“. Öffentliche Inhalte erscheinen auf der Erkundungsseite.

Welche Dateigrößenbeschränkungen gibt es?

Bilder: 50 MB, Videos: 1 GB, ZIP-Archive: 10 GB. Für größere Dateien teilen Sie diese bitte in mehrere Uploads auf.

Wie lange bleiben gelöschte Elemente im Papierkorb?

30 Tage. Danach werden Elemente dauerhaft gelöscht und können nicht wiederhergestellt werden.

Kann ich Plattform-Modelle kommerziell nutzen?

Kostenlose und Pro-Pläne verwenden die AGPL-Lizenz. Für die kommerzielle Nutzung ohne AGPL-Anforderungen kontaktieren Sie sales@ultralytics.com für eine Enterprise-Lizenzierung.



📅 Erstellt vor 2 Monaten ✏️ Aktualisiert vor 2 Tagen
glenn-jochersergiuwaxmannLaughing-q

Kommentare