Ultralytics Integrationen
Willkommen auf der Ultralytics-Integrationsseite! Diese Seite bietet einen Überblick über unsere Partnerschaften mit verschiedenen Tools und Plattformen, die darauf ausgelegt sind, Ihre Machine-Learning-Workflows zu optimieren, das Dataset-Management zu verbessern, das Modelltraining zu vereinfachen und eine effiziente Bereitstellung zu ermöglichen.
Ansehen: Ultralytics YOLO11 Bereitstellung und Integrationen
Trainingsintegrationen
-
Amazon SageMaker: Nutzen Sie Amazon SageMaker, um Ultralytics-Modelle effizient zu erstellen, zu trainieren und bereitzustellen, und erhalten Sie eine Komplettlösung für den ML-Lebenszyklus.
-
ClearML: Automatisieren Sie Ihre Ultralytics ML-Workflows, überwachen Sie Experimente und fördern Sie die Zusammenarbeit im Team.
-
Comet ML: Optimieren Sie Ihre Modellentwicklung mit Ultralytics, indem Sie Ihre Machine-Learning-Experimente verfolgen, vergleichen und optimieren.
-
DVC: Implementieren Sie eine Versionskontrolle für Ihre Ultralytics Machine-Learning-Projekte und synchronisieren Sie Daten, Code und Modelle effektiv.
-
Google Colab: Verwenden Sie Google Colab, um Ultralytics-Modelle in einer Cloud-basierten Umgebung zu trainieren und auszuwerten, die Zusammenarbeit und Austausch unterstützt.
-
IBM Watsonx: Erfahren Sie, wie IBM Watsonx das Training und die Evaluierung von Ultralytics-Modellen mit seinen hochmodernen KI-Tools, der mühelosen Integration und dem fortschrittlichen Modellverwaltungssystem vereinfacht.
-
JupyterLab: Finden Sie heraus, wie Sie die interaktive und anpassbare Umgebung von JupyterLab nutzen können, um Ultralytics-Modelle einfach und effizient zu trainieren und zu evaluieren.
-
Kaggle: Entdecken Sie, wie Sie Kaggle nutzen können, um Ultralytics-Modelle in einer Cloud-basierten Umgebung mit vorinstallierten Bibliotheken, GPU-Unterstützung und einer lebendigen Community für Zusammenarbeit und Austausch zu trainieren und zu evaluieren.
-
MLFlow: Optimieren Sie den gesamten ML-Lebenszyklus von Ultralytics-Modellen, von der Experimentierphase über die Reproduzierbarkeit bis hin zur Bereitstellung.
-
Neptune: Führen Sie ein umfassendes Protokoll Ihrer ML-Experimente mit Ultralytics in diesem für MLOps entwickelten Metadatenspeicher.
-
Paperspace Gradient: Paperspace Gradient vereinfacht die Arbeit an YOLO11-Projekten, indem es einfach zu bedienende Cloud-Tools für das schnelle Trainieren, Testen und Bereitstellen Ihrer Modelle bereitstellt.
-
Ray Tune: Optimieren Sie die Hyperparameter Ihrer Ultralytics-Modelle in jeder Größenordnung.
-
TensorBoard: Visualisieren Sie Ihre Ultralytics ML-Workflows, überwachen Sie Modellmetriken und fördern Sie die Zusammenarbeit im Team.
-
Ultralytics HUB: Greifen Sie auf eine Community vortrainierter Ultralytics-Modelle zu und leisten Sie einen Beitrag.
-
Weights & Biases (W&B): Überwachen Sie Experimente, visualisieren Sie Metriken und fördern Sie die Reproduzierbarkeit und Zusammenarbeit bei Ultralytics-Projekten.
-
VS Code: Eine Erweiterung für VS Code, die Code-Snippets zur Beschleunigung von Entwicklungs-Workflows mit Ultralytics bietet, und auch für alle, die Beispiele suchen, um mit Ultralytics zu lernen oder anzufangen.
-
Albumentations: Verbessern Sie Ihre Ultralytics-Modelle mit leistungsstarken Bildaugmentationen, um die Robustheit und Generalisierung des Modells zu verbessern.
Bereitstellungsintegrationen
-
TorchScript: TorchScript wurde als Teil des PyTorch-Frameworks entwickelt und ermöglicht die effiziente Ausführung und Bereitstellung von Modellen für maschinelles Lernen in verschiedenen Produktionsumgebungen, ohne dass Python-Abhängigkeiten erforderlich sind.
-
ONNX: Ein von Microsoft erstelltes Open-Source-Format zur Erleichterung des Transfers von KI-Modellen zwischen verschiedenen Frameworks, wodurch die Vielseitigkeit und Bereitstellungsflexibilität von Ultralytics-Modellen verbessert werden.
-
OpenVINO: Das Toolkit von Intel zur effizienten Optimierung und Bereitstellung von Computer Vision-Modellen auf verschiedenen Intel CPU- und GPU-Plattformen.
-
TensorRT: Dieses von NVIDIA entwickelte Hochleistungs-Deep-Learning-Inferenz-Framework und -Modellformat optimiert KI-Modelle für beschleunigte Geschwindigkeit und Effizienz auf NVIDIA-GPUs und gewährleistet eine optimierte Bereitstellung.
-
CoreML: CoreML, entwickelt von Apple, ist ein Framework, das für die effiziente Integration von Machine-Learning-Modellen in Anwendungen unter iOS, macOS, watchOS und tvOS entwickelt wurde und die Hardware von Apple für eine effektive und sichere Modellbereitstellung nutzt.
-
TF SavedModel: TF SavedModel wurde von Google entwickelt und ist ein universelles Serialisierungsformat für TensorFlow-Modelle, das die einfache gemeinsame Nutzung und Bereitstellung auf einer Vielzahl von Plattformen ermöglicht, von Servern bis hin zu Edge-Geräten.
-
TF GraphDef: GraphDef wurde von Google entwickelt und ist das TensorFlow-Format zur Darstellung von Berechnungsdiagrammen, das die optimierte Ausführung von Modellen des maschinellen Lernens auf verschiedener Hardware ermöglicht.
-
TFLite: TFLite wurde von Google entwickelt und ist ein schlankes Framework für die Bereitstellung von Modellen für maschinelles Lernen auf mobilen Geräten und Edge-Geräten, das eine schnelle, effiziente Inferenz mit minimalem Speicherbedarf gewährleistet.
-
TFLite Edge TPU: Dieses von Google zur Optimierung von TensorFlow Lite-Modellen auf Edge TPUs entwickelte Modellformat gewährleistet eine schnelle, effiziente Edge-Berechnung.
-
TF.js: TF.js wurde von Google entwickelt, um maschinelles Lernen in Browsern und Node.js zu ermöglichen. TF.js ermöglicht die JavaScript-basierte Bereitstellung von ML-Modellen.
-
PaddlePaddle: PaddlePaddle ist eine Open-Source-Deep-Learning-Plattform von Baidu und ermöglicht die effiziente Bereitstellung von KI-Modellen mit Fokus auf die Skalierbarkeit industrieller Anwendungen.
-
MNN: MNN wurde von Alibaba entwickelt und ist ein hocheffizientes und leichtgewichtiges Deep-Learning-Framework. Es unterstützt Inferenz und Training von Deep-Learning-Modellen und bietet branchenführende Leistung für Inferenz und On-Device-Training.
-
NCNN: NCNN wurde von Tencent entwickelt und ist ein effizientes Framework für die Inferenz neuronaler Netze, das speziell auf mobile Geräte zugeschnitten ist. Es ermöglicht die direkte Bereitstellung von KI-Modellen in Apps und optimiert die Leistung auf verschiedenen mobilen Plattformen.
-
SONY IMX500 🚀 NEU: Optimieren und stellen Sie Ultralytics YOLOv8-Modelle auf Raspberry Pi AI-Kameras mit dem IMX500-Sensor bereit, um eine schnelle Leistung bei geringem Stromverbrauch zu erzielen.
-
Rockchip RKNN: RKNN wurde von Rockchip entwickelt und ist ein spezialisiertes Framework für die Inferenz neuronaler Netze, das für die Hardwareplattformen von Rockchip, insbesondere deren NPUs, optimiert ist. Es ermöglicht die effiziente Bereitstellung von KI-Modellen auf Edge-Geräten und ermöglicht so eine hochleistungsfähige Inferenz in Echtzeitanwendungen.
-
Neural Magic: Nutzen Sie Quantization Aware Training (QAT) und Pruning-Techniken, um Ultralytics-Modelle für überlegene Leistung und geringere Größe zu optimieren.
-
Seeed Studio reCamera: Die von Seeed Studio entwickelte reCamera ist ein hochmodernes Edge-KI-Gerät, das für Echtzeit-Computer-Vision-Anwendungen entwickelt wurde. Angetrieben von dem RISC-V-basierten SG200X-Prozessor bietet es eine hochleistungsfähige KI-Inferenz mit Energieeffizienz. Sein modularer Aufbau, seine fortschrittlichen Videoverarbeitungsfunktionen und seine Unterstützung für flexible Bereitstellung machen es zu einer idealen Wahl für verschiedene Anwendungsfälle, darunter Sicherheitsüberwachung, Umweltanwendungen und Fertigung.
-
Gradio: Stellen Sie Ultralytics-Modelle mit Gradio für interaktive Echtzeit-Objekterkennungsdemos bereit.
Datensatz Integrationen
- Roboflow: Erleichtert die Datensatzbeschriftung und -verwaltung für Ultralytics-Modelle und bietet Annotationstools zum Beschriften von Bildern.
Exportformate
Wir unterstützen auch eine Vielzahl von Modellexportformaten für die Bereitstellung in verschiedenen Umgebungen. Hier sind die verfügbaren Formate:
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , half , dynamic , optimize , nms , batch , device |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name , device |
Entdecken Sie die Links, um mehr über die einzelnen Integrationen zu erfahren und wie Sie sie mit Ultralytics optimal nutzen können. Vollständige Informationen finden Sie unter export
Details auf der Export Seite.
Beitragen zu unseren Integrationen
Wir freuen uns immer zu sehen, wie die Community Ultralytics YOLO mit anderen Technologien, Tools und Plattformen integriert! Wenn Sie YOLO erfolgreich in ein neues System integriert haben oder wertvolle Erkenntnisse teilen möchten, sollten Sie einen Beitrag zu unserer Integrationsdokumentation leisten.
Indem Sie eine Anleitung oder ein Tutorial schreiben, können Sie dazu beitragen, unsere Dokumentation zu erweitern und Beispiele aus der Praxis bereitzustellen, die der Community zugute kommen. Es ist eine ausgezeichnete Möglichkeit, zum wachsenden Ökosystem rund um Ultralytics YOLO beizutragen.
Um einen Beitrag zu leisten, lesen Sie bitte unseren Leitfaden für Mitwirkende mit Anweisungen zum Einreichen einer Pull Request (PR) 🛠️. Wir erwarten Ihre Beiträge mit Spannung!
Lassen Sie uns zusammenarbeiten, um das Ultralytics YOLO-Ökosystem umfassender und funktionsreicher zu gestalten 🙏!
FAQ
Was ist Ultralytics HUB und wie optimiert es den ML-Workflow?
Ultralytics HUB ist eine Cloud-basierte Plattform, die Machine-Learning-Workflows für Ultralytics-Modelle nahtlos und effizient gestalten soll. Mit diesem Tool können Sie auf einfache Weise Datensätze hochladen, Modelle trainieren, Echtzeit-Tracking durchführen und YOLO-Modelle bereitstellen, ohne umfangreiche Programmierkenntnisse zu benötigen. Die Plattform dient als zentralisierter Arbeitsbereich, in dem Sie Ihre gesamte ML-Pipeline von der Datenvorbereitung bis zur Bereitstellung verwalten können. Sie können die wichtigsten Funktionen auf der Ultralytics HUB-Seite erkunden und mit unserem Schnellstart-Leitfaden schnell loslegen.
Kann ich die Leistung meiner Ultralytics-Modelle mit MLFlow verfolgen?
Ja, das ist möglich. Die Integration von MLFlow mit Ultralytics-Modellen ermöglicht es Ihnen, Experimente zu verfolgen, die Reproduzierbarkeit zu verbessern und den gesamten ML-Lebenszyklus zu optimieren. Detaillierte Anweisungen zum Einrichten dieser Integration finden Sie auf der Seite zur MLFlow-Integration. Diese Integration ist besonders nützlich für die Überwachung von Modellmetriken, den Vergleich verschiedener Trainingsläufe und die effiziente Verwaltung des ML-Workflows. MLFlow bietet eine zentrale Plattform zum Protokollieren von Parametern, Metriken und Artefakten, wodurch es einfacher wird, das Modellverhalten zu verstehen und datengesteuerte Verbesserungen vorzunehmen.
Welche Vorteile bietet der Einsatz von Neural Magic zur Optimierung von YOLO11-Modellen?
Neural Magic optimiert YOLO11-Modelle durch den Einsatz von Techniken wie Quantization Aware Training (QAT) und Beschneidung, was zu hocheffizienten, kleineren Modellen führt, die auf ressourcenbeschränkter Hardware eine bessere Leistung erbringen. Auf der Neural Magic-Integrationsseite erfahren Sie, wie Sie diese Optimierungen für eine überlegene Leistung und schlankere Modelle implementieren können. Dies ist besonders vorteilhaft für den Einsatz auf Edge-Geräten, bei denen die Rechenressourcen begrenzt sind. Die DeepSparse-Engine von Neural Magic kann eine bis zu 6-mal schnellere Inferenz auf CPUs ermöglichen, wodurch die Ausführung komplexer Modelle ohne spezielle Hardware möglich wird.
Wie kann ich Ultralytics YOLO-Modelle mit Gradio für interaktive Demos bereitstellen?
Um Ultralytics YOLO-Modelle mit Gradio für interaktive Objekterkennungs-Demos bereitzustellen, können Sie die auf der Gradio-Integrationsseite beschriebenen Schritte befolgen. Mit Gradio können Sie benutzerfreundliche Webschnittstellen für die Echtzeit-Modellinferenz erstellen, was es zu einem hervorragenden Werkzeug macht, um die Fähigkeiten Ihres YOLO-Modells in einem benutzerfreundlichen Format zu präsentieren, das sowohl für Entwickler als auch für Endbenutzer geeignet ist. Mit nur wenigen Codezeilen können Sie interaktive Anwendungen erstellen, die die Leistung Ihres Modells anhand von benutzerdefinierten Eingaben demonstrieren und so ein besseres Verständnis und eine bessere Bewertung Ihrer Computer-Vision-Lösungen ermöglichen.