Bereitstellung
Ultralytics bietet umfassende Bereitstellungsoptionen für die Produktion Ihrer YOLO . Testen Sie Modelle mit browserbasierter Inferenz, stellen Sie sie an dedizierten Endpunkten in 43 Regionen weltweit bereit und überwachen Sie die Leistung in Echtzeit.
Überblick
Der Abschnitt Bereitstellung hilft Ihnen dabei:
- Test Modelle direkt im Browser mit dem
PredictRegisterkarte - auf dedizierten Endpunkten in 43 globalen Regionen zu bereitzustellen
- Überwachen Sie Anforderungsmetriken, Protokolle und Zustandsprüfungen.
- Automatische Skalierung entsprechend dem Datenverkehr (einschließlich Skalierung auf Null)

Bereitstellungsoptionen
Ultralytics Platform bietet mehrere Bereitstellungspfade:
| Option | Beschreibung | Am besten geeignet für |
|---|---|---|
| Vorhersage-Registerkarte | Browserbasierte Inferenz mit Bild, Webcam und Beispielen | Entwicklung, Validierung |
| Geteilte Inferenz | Multi-Tenant-Service in 3 Regionen | Leichte Nutzung, Tests |
| Dedizierte Endpunkte | Single-Tenant-Services in 43 Regionen | Produktion, geringe Latenz |
Workflow
graph LR
A[✅ Test] --> B[⚙️ Configure]
B --> C[🌐 Deploy]
C --> D[📊 Monitor]
style A fill:#4CAF50,color:#fff
style B fill:#2196F3,color:#fff
style C fill:#FF9800,color:#fff
style D fill:#9C27B0,color:#fff
| Phase | Beschreibung |
|---|---|
| Test | Modell mit dem Predict Registerkarte |
| Konfigurieren | Wählen Sie Region, Ressourcen und Bereitstellungsnamen aus. |
| Bereitstellung | Erstellen Sie einen dedizierten Endpunkt aus dem Deploy Registerkarte |
| Überwachen | Verfolgen Sie Anfragen, Latenzzeiten, Fehler und Protokolle in der Überwachung. |
Architektur
Geteilte Inferenz
Der gemeinsam genutzte Inferenzdienst wird in drei wichtigen Regionen ausgeführt und leitet Anfragen automatisch basierend auf Ihrer Datenregion weiter:
graph TB
User[User Request] --> API[Platform API]
API --> Router{Region Router}
Router -->|US users| US["US Predict Service<br/>Iowa"]
Router -->|EU users| EU["EU Predict Service<br/>Belgium"]
Router -->|AP users| AP["AP Predict Service<br/>Hong Kong"]
style User fill:#f5f5f5,color:#333
style API fill:#2196F3,color:#fff
style Router fill:#FF9800,color:#fff
style US fill:#4CAF50,color:#fff
style EU fill:#4CAF50,color:#fff
style AP fill:#4CAF50,color:#fff
| Region | Standort |
|---|---|
| USA | Iowa, USA |
| EU | Belgien, Europa |
| AP | Hongkong, Asien-Pazifik |
Dedizierte Endpunkte
Bereitstellung in 43 Regionen weltweit auf Ultralytics :
- Amerika: 14 Regionen
- Europa: 13 Regionen
- Asien-Pazifik: 12 Regionen
- Naher Osten und Afrika: 4 Regionen
Jeder Endpunkt ist ein Single-Tenant-Dienst mit:
- Dedizierte Rechenressourcen (konfigurierbare CPU Arbeitsspeicher)
- Automatische Skalierung (Skalierung auf Null bei Inaktivität)
- Eindeutige Endpunkt-URL
- Unabhängige Überwachung, Protokolle und Zustandsprüfungen
Bereitstellungsseite
Rufen Sie die Seite „Globale Bereitstellungen“ über die Seitenleiste unter DeployDiese Seite zeigt:
- Weltkarte mit eingesetzten Regionsstecknadeln (interaktive Karte)
- Übersichtskarten: Gesamtanzahl der Anfragen (24 Stunden), aktive Bereitstellungen, Fehlerquote (24 Stunden), P95-Latenz (24 Stunden)
- Bereitstellungsliste mit drei Ansichtsmodi: Karten, kompakt und Tabelle
- Neue Schaltfläche „Bereitstellen“ zum Erstellen von Endpunkten aus jedem abgeschlossenen Modell

Automatische Abfrage
Die Seite fragt alle 30 Sekunden nach Aktualisierungen der Metriken. Wenn sich Bereitstellungen in einem Übergangsstatus befinden (Erstellen, Bereitstellen, Beenden), erhöht sich die Abfragefrequenz auf alle 2–3 Sekunden, um nahezu sofortiges Feedback zu ermöglichen.
Hauptmerkmale
Globale Abdeckung
Stellen Sie nahe bei Ihren Benutzern bereit, mit 43 Regionen, die abdecken:
- Nordamerika, Südamerika
- Europa, Mittlerer Osten, Afrika
- Asien-Pazifik, Ozeanien
Auto-Skalierung
Endpunkte skalieren automatisch:
- Auf Null skalieren: Keine Kosten im Leerlauf (Standard)
- Skalierung: Automatische Bewältigung von Traffic-Spitzen
Kosteneinsparungen
Die Skalierung auf Null ist standardmäßig aktiviert (min. Instanzen = 0). Sie zahlen nur für die aktive Inferenzzeit.
Geringe Latenz
Dedizierte Endpunkte bieten:
- Kaltstart: ~5–15 Sekunden (zwischengespeicherter Container), bis zu ~45 Sekunden (erste Bereitstellung)
- Warme Inferenz: 50-200 ms (modellabhängig)
- Regionales Routing für optimale Leistung
Gesundheitschecks
Jede laufende Bereitstellung umfasst eine automatische Zustandsprüfung mit:
- Live-Statusanzeige (fehlerfrei/fehlerhaft)
- Anzeige der Reaktionslatenz
- Automatischer Wiederholungsversuch bei Fehler (Abfrage alle 20 Sekunden)
- Schaltfläche für manuelle Aktualisierung
Schnellstart
Ein Modell in weniger als 2 Minuten bereitstellen:
- Ein Modell trainieren oder in ein Projekt hochladen
- Gehen Sie zur Registerkarte „Bereitstellen“ des Modells.
- Wählen Sie eine Region aus der Latenztabelle aus.
- Klicken Sie auf „Bereitstellen“ – Ihr Endpunkt ist live.
Schnelle Bereitstellung
Model → Deploy tab → Select region → Click Deploy → Endpoint URL ready
Nach der Bereitstellung verwenden Sie die Endpunkt-URL mit Ihrem API-Schlüssel, um Inferenzanfragen von jeder Anwendung aus zu senden.
Schnellzugriffe
- Inferenz: Modelle im Browser testen
- Endpunkte: Dedizierte Endpunkte bereitstellen
- Monitoring: Tracken Sie die Bereitstellungs-Performance
FAQ
Was ist der Unterschied zwischen geteilter und dedizierter Inferenz?
| Merkmal | Geteilt | Dediziert |
|---|---|---|
| Latenz | Variabel | Konsistent |
| Kosten | Zahlung pro Anfrage | Zahlung für Betriebszeit |
| Skala | Begrenzt | Konfigurierbar |
| Regionen | 3 | 43 |
| URL | Generisch | Benutzerdefiniert |
Wie lange dauert die Bereitstellung?
Die Bereitstellung dedizierter Endpunkte dauert in der Regel 1-2 Minuten:
- Image-Pull (~30s)
- Container-Start (~30s)
- Zustandsprüfung (~30s)
Kann ich mehrere Modelle bereitstellen?
Ja, jedes Modell kann mehrere Endpunkte in verschiedenen Regionen haben. Es gibt keine Begrenzung der Gesamtzahl der Endpunkte (abhängig von Ihrem Plan).
Was passiert, wenn ein Endpunkt im Leerlauf ist?
Mit aktivierter Skalierung auf Null:
- Endpunkt skaliert nach Inaktivität herunter
- Erste Anfrage löst Kaltstart aus
- Nachfolgende Anfragen sind schnell
Die ersten Anfragen nach einer Leerlaufphase lösen einen Kaltstart aus.