Zum Inhalt springen

Ultralytics Integrationen

Willkommen auf der Ultralytics-Integrationsseite! Diese Seite bietet einen Überblick über unsere Partnerschaften mit verschiedenen Tools und Plattformen, die darauf ausgelegt sind, Ihre Machine-Learning-Workflows zu optimieren, das Dataset-Management zu verbessern, das Modelltraining zu vereinfachen und eine effiziente Bereitstellung zu ermöglichen.

Ultralytics YOLO Ökosystem und Integrationen



Ansehen: Ultralytics YOLO Bereitstellung und Integrationen

Trainingsintegrationen

  • Albumentations: Verbessern Sie Ihre Ultralytics-Modelle mit leistungsstarken Bildaugmentationen, um die Robustheit und Generalisierung des Modells zu verbessern.

  • Amazon SageMaker: Nutzen Sie Amazon SageMaker, um Ultralytics-Modelle effizient zu erstellen, zu trainieren und bereitzustellen, und erhalten Sie eine Komplettlösung für den ML-Lebenszyklus.

  • ClearML: Automatisieren Sie Ihre Ultralytics ML-Workflows, überwachen Sie Experimente und fördern Sie die Zusammenarbeit im Team.

  • Comet ML: Optimieren Sie Ihre Modellentwicklung mit Ultralytics, indem Sie Ihre Machine-Learning-Experimente verfolgen, vergleichen und optimieren.

  • DVC: Implementieren Sie eine Versionskontrolle für Ihre Ultralytics Machine-Learning-Projekte und synchronisieren Sie Daten, Code und Modelle effektiv.

  • Google Colab: Verwenden Sie Google Colab, um Ultralytics-Modelle in einer Cloud-basierten Umgebung zu trainieren und auszuwerten, die Zusammenarbeit und Austausch unterstützt.

  • IBM Watsonx: Erfahren Sie, wie IBM Watsonx das Training und die Evaluierung von Ultralytics-Modellen mit seinen hochmodernen KI-Tools, der mühelosen Integration und dem fortschrittlichen Modellverwaltungssystem vereinfacht.

  • JupyterLab: Finden Sie heraus, wie Sie die interaktive und anpassbare Umgebung von JupyterLab nutzen können, um Ultralytics-Modelle einfach und effizient zu trainieren und zu evaluieren.

  • Kaggle: Entdecken Sie, wie Sie Kaggle nutzen können, um Ultralytics-Modelle in einer Cloud-basierten Umgebung mit vorinstallierten Bibliotheken, GPU-Unterstützung und einer lebendigen Community für Zusammenarbeit und Austausch zu trainieren und zu evaluieren.

  • MLFlow: Optimieren Sie den gesamten ML-Lebenszyklus von Ultralytics-Modellen, von der Experimentierphase über die Reproduzierbarkeit bis hin zur Bereitstellung.

  • Neptune: Führen Sie ein umfassendes Protokoll Ihrer ML-Experimente mit Ultralytics in diesem für MLOps entwickelten Metadatenspeicher.

  • Paperspace Gradient: Paperspace Gradient vereinfacht die Arbeit an YOLO26-Projekten, indem es benutzerfreundliche Cloud-Tools für das schnelle Training, Testen und Bereitstellen Ihrer Modelle bereitstellt.

  • Ray Tune: Optimieren Sie die Hyperparameter Ihrer Ultralytics-Modelle in jeder Größenordnung.

  • TensorBoard: Visualisieren Sie Ihre Ultralytics ML-Workflows, überwachen Sie Modellmetriken und fördern Sie die Zusammenarbeit im Team.

  • Ultralytics Platform: Greifen Sie auf eine Community von vortrainierten Ultralytics-Modellen zu und tragen Sie dazu bei.

  • VS Code: Eine Erweiterung für VS Code, die Code-Snippets zur Beschleunigung von Ultralytics-Entwicklungs-Workflows bereitstellt und Beispiele bietet, die jedem helfen, zu lernen oder anzufangen.

  • Weights & Biases (W&B): Überwachen Sie Experimente, visualisieren Sie Metriken und fördern Sie die Reproduzierbarkeit und Zusammenarbeit bei Ultralytics-Projekten.

Bereitstellungsintegrationen

  • Axelera: Entdecken Sie Metis-Beschleuniger und das Voyager SDK für die Ausführung von Ultralytics-Modellen mit effizienter Edge Inference.

  • CoreML: CoreML, entwickelt von Apple, ist ein Framework, das für die effiziente Integration von Machine-Learning-Modellen in Anwendungen unter iOS, macOS, watchOS und tvOS entwickelt wurde und die Hardware von Apple für eine effektive und sichere Modellbereitstellung nutzt.

  • ExecuTorch: Entwickelt von Meta, ist ExecuTorch die einheitliche PyTorch-Lösung zur Bereitstellung von Ultralytics YOLO-Modellen auf Edge-Geräten.

  • Gradio: Stellen Sie Ultralytics-Modelle mit Gradio für interaktive Echtzeit-Objekterkennungsdemos bereit.

  • MNN: MNN wurde von Alibaba entwickelt und ist ein hocheffizientes und leichtgewichtiges Deep-Learning-Framework. Es unterstützt Inferenz und Training von Deep-Learning-Modellen und bietet branchenführende Leistung für Inferenz und On-Device-Training.

  • NCNN: NCNN wurde von Tencent entwickelt und ist ein effizientes Framework für die Inferenz neuronaler Netze, das speziell auf mobile Geräte zugeschnitten ist. Es ermöglicht die direkte Bereitstellung von KI-Modellen in Apps und optimiert die Leistung auf verschiedenen mobilen Plattformen.

  • Neural Magic: Nutzen Sie Quantization Aware Training (QAT) und Pruning-Techniken, um Ultralytics-Modelle für überlegene Leistung und geringere Größe zu optimieren.

  • ONNX: Ein von Microsoft erstelltes Open-Source-Format zur Erleichterung des Transfers von KI-Modellen zwischen verschiedenen Frameworks, wodurch die Vielseitigkeit und Bereitstellungsflexibilität von Ultralytics-Modellen verbessert werden.

  • OpenVINO: Das Toolkit von Intel zur effizienten Optimierung und Bereitstellung von Computer Vision-Modellen auf verschiedenen Intel CPU- und GPU-Plattformen.

  • PaddlePaddle: PaddlePaddle ist eine Open-Source-Deep-Learning-Plattform von Baidu und ermöglicht die effiziente Bereitstellung von KI-Modellen mit Fokus auf die Skalierbarkeit industrieller Anwendungen.

  • Rockchip RKNN: RKNN wurde von Rockchip entwickelt und ist ein spezialisiertes Framework für die Inferenz neuronaler Netze, das für die Hardwareplattformen von Rockchip, insbesondere deren NPUs, optimiert ist. Es ermöglicht die effiziente Bereitstellung von KI-Modellen auf Edge-Geräten und ermöglicht so eine hochleistungsfähige Inferenz in Echtzeitanwendungen.

  • Seeed Studio reCamera: Die von Seeed Studio entwickelte reCamera ist ein fortschrittliches Edge-KI-Gerät, das für Echtzeit-Computer Vision-Anwendungen entwickelt wurde. Angetrieben von dem RISC-V-basierten SG200X-Prozessor, liefert es hochleistungsfähige KI-Inferenz mit Energieeffizienz. Sein modularer Aufbau, seine fortschrittlichen Videoverarbeitungsfunktionen und die Unterstützung für flexible Bereitstellung machen es zu einer idealen Wahl für verschiedene Anwendungsfälle, einschließlich Sicherheitsüberwachung, Umweltanwendungen und Fertigung.

  • SONY IMX500: Optimieren und deployen Sie Ultralytics YOLO26-Modelle auf Raspberry Pi KI-Kameras mit dem IMX500-Sensor für schnelle Leistung bei geringem Stromverbrauch.

  • TensorRT: Dieses von NVIDIA entwickelte Hochleistungs-Deep-Learning-Inferenz-Framework und -Modellformat optimiert KI-Modelle für beschleunigte Geschwindigkeit und Effizienz auf NVIDIA-GPUs und gewährleistet eine optimierte Bereitstellung.

  • TF GraphDef: GraphDef wurde von Google entwickelt und ist das TensorFlow-Format zur Darstellung von Berechnungsdiagrammen, das die optimierte Ausführung von Modellen des maschinellen Lernens auf verschiedener Hardware ermöglicht.

  • TF SavedModel: TF SavedModel wurde von Google entwickelt und ist ein universelles Serialisierungsformat für TensorFlow-Modelle, das die einfache gemeinsame Nutzung und Bereitstellung auf einer Vielzahl von Plattformen ermöglicht, von Servern bis hin zu Edge-Geräten.

  • TF.js: TF.js wurde von Google entwickelt, um maschinelles Lernen in Browsern und Node.js zu ermöglichen. TF.js ermöglicht die JavaScript-basierte Bereitstellung von ML-Modellen.

  • TFLite: TFLite wurde von Google entwickelt und ist ein schlankes Framework für die Bereitstellung von Modellen für maschinelles Lernen auf mobilen Geräten und Edge-Geräten, das eine schnelle, effiziente Inferenz mit minimalem Speicherbedarf gewährleistet.

  • TFLite Edge TPU: Dieses von Google entwickelte Modellformat optimiert TensorFlow Lite-Modelle auf Edge TPUs und gewährleistet so eine schnelle und effiziente Edge-Berechnung.

  • TorchScript: TorchScript wurde als Teil des PyTorch-Frameworks entwickelt und ermöglicht die effiziente Ausführung und Bereitstellung von Modellen für maschinelles Lernen in verschiedenen Produktionsumgebungen, ohne dass Python-Abhängigkeiten erforderlich sind.

Datensatz Integrationen

  • Roboflow: Erleichtert die Datensatzbeschriftung und -verwaltung für Ultralytics-Modelle und bietet Annotationstools zum Beschriften von Bildern.

Exportformate

Wir unterstützen auch eine Vielzahl von Modellexportformaten für die Bereitstellung in verschiedenen Umgebungen. Hier sind die verfügbaren Formate:

Formatformat ArgumentModellMetadatenArgumente
PyTorch-yolo26n.pt-
TorchScripttorchscriptyolo26n.torchscriptimgsz, half, dynamic, optimize, nms, batch, device
ONNXonnxyolo26n.onnximgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINOopenvinoyolo26n_openvino_model/imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRTengineyolo26n.engineimgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreMLcoremlyolo26n.mlpackageimgsz, dynamic, half, int8, nms, batch, device
TF SavedModelsaved_modelyolo26n_saved_model/imgsz, keras, int8, nms, batch, device
TF GraphDefpbyolo26n.pbimgsz, batch, device
TF Litetfliteyolo26n.tfliteimgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPUedgetpuyolo26n_edgetpu.tfliteimgsz, device
TF.jstfjsyolo26n_web_model/imgsz, half, int8, nms, batch, device
PaddlePaddlepaddleyolo26n_paddle_model/imgsz, batch, device
MNNmnnyolo26n.mnnimgsz, batch, int8, half, device
NCNNncnnyolo26n_ncnn_model/imgsz, half, batch, device
IMX500imxyolo26n_imx_model/imgsz, int8, data, fraction, device
RKNNrknnyolo26n_rknn_model/imgsz, batch, name, device
ExecuTorchexecutorchyolo26n_executorch_model/imgsz, device
Axeleraaxelerayolo26n_axelera_model/imgsz, int8, data, fraction, device

Entdecken Sie die Links, um mehr über die einzelnen Integrationen zu erfahren und wie Sie sie mit Ultralytics optimal nutzen können. Vollständige Informationen finden Sie unter export Details auf der Export Seite.

Beitragen zu unseren Integrationen

Wir freuen uns immer zu sehen, wie die Community Ultralytics YOLO mit anderen Technologien, Tools und Plattformen integriert! Wenn Sie YOLO erfolgreich in ein neues System integriert haben oder wertvolle Erkenntnisse teilen möchten, sollten Sie einen Beitrag zu unserer Integrationsdokumentation leisten.

Indem Sie eine Anleitung oder ein Tutorial schreiben, können Sie dazu beitragen, unsere Dokumentation zu erweitern und Beispiele aus der Praxis bereitzustellen, die der Community zugute kommen. Es ist eine ausgezeichnete Möglichkeit, zum wachsenden Ökosystem rund um Ultralytics YOLO beizutragen.

Um einen Beitrag zu leisten, lesen Sie bitte unseren Leitfaden für Mitwirkende mit Anweisungen zum Einreichen einer Pull Request (PR) 🛠️. Wir erwarten Ihre Beiträge mit Spannung!

Lassen Sie uns zusammenarbeiten, um das Ultralytics YOLO-Ökosystem umfassender und funktionsreicher zu gestalten 🙏!

FAQ

Was ist die Ultralytics Platform und wie optimiert sie den ML-Workflow?

Ultralytics Platform ist eine cloudbasierte Plattform, die darauf ausgelegt ist, Machine-Learning-Workflows für Ultralytics-Modelle nahtlos und effizient zu gestalten. Mit diesem Tool können Sie Datensätze einfach hochladen, Modelle trainieren, Echtzeit-track durchführen und YOLO-Modelle bereitstellen, ohne umfassende Programmierkenntnisse zu benötigen. Die Plattform dient als zentraler Arbeitsbereich, in dem Sie Ihre gesamte ML-Pipeline von der Datenvorbereitung bis zur Bereitstellung verwalten können. Sie können die wichtigsten Funktionen auf der Ultralytics Platform-Seite erkunden und schnell mit unserem Quickstart-Leitfaden beginnen.

Kann ich die Leistung meiner Ultralytics-Modelle mithilfe von MLFlow verfolgen?

Ja, das können Sie. Die Integration von MLFlow mit Ultralytics-Modellen ermöglicht es Ihnen, Experimente zu verfolgen, die Reproduzierbarkeit zu verbessern und den gesamten ML-Lebenszyklus zu optimieren. Detaillierte Anweisungen zur Einrichtung dieser Integration finden Sie auf der MLFlow-Integrationsseite. Diese Integration ist besonders nützlich, um Modellmetriken zu überwachen, verschiedene Trainingsläufe zu vergleichen und den ML-Workflow effizient zu verwalten. MLFlow bietet eine zentralisierte Plattform zum Protokollieren von Parametern, Metriken und Artefakten, wodurch es einfacher wird, das Modellverhalten zu verstehen und datengesteuerte Verbesserungen vorzunehmen.

Welche Vorteile bietet die Verwendung von Neural Magic für die Optimierung von YOLO26-Modellen?

Neural Magic optimiert YOLO26-Modelle durch den Einsatz von Techniken wie Quantization Aware Training (QAT) und Pruning, was zu hocheffizienten, kleineren Modellen führt, die auf ressourcenbeschränkter Hardware besser performen. Besuchen Sie die Neural Magic-Integrationsseite, um zu erfahren, wie Sie diese Optimierungen für überragende Leistung und schlankere Modelle implementieren können. Dies ist besonders vorteilhaft für die Bereitstellung auf Edge-Geräten, wo die Rechenressourcen begrenzt sind. Die DeepSparse-Engine von Neural Magic kann eine bis zu 6-mal schnellere Inferenz auf CPUs liefern, wodurch komplexe Modelle ohne spezielle Hardware ausgeführt werden können.

Wie kann ich Ultralytics YOLO-Modelle mit Gradio für interaktive Demos bereitstellen?

Um Ultralytics YOLO-Modelle mit Gradio für interaktive Objekterkennungs-Demos bereitzustellen, können Sie die auf der Gradio-Integrationsseite beschriebenen Schritte befolgen. Mit Gradio können Sie benutzerfreundliche Webschnittstellen für die Echtzeit-Modellinferenz erstellen, was es zu einem hervorragenden Werkzeug macht, um die Fähigkeiten Ihres YOLO-Modells in einem benutzerfreundlichen Format zu präsentieren, das sowohl für Entwickler als auch für Endbenutzer geeignet ist. Mit nur wenigen Codezeilen können Sie interaktive Anwendungen erstellen, die die Leistung Ihres Modells anhand von benutzerdefinierten Eingaben demonstrieren und so ein besseres Verständnis und eine bessere Bewertung Ihrer Computer-Vision-Lösungen ermöglichen.



📅 Erstellt vor 2 Jahren ✏️ Aktualisiert vor 2 Tagen
glenn-jocherabirami-vinaBurhan-Qambitious-octopusRizwanMunawarUltralyticsAssistantpderrengerleonnilIvorZhu331Laughing-qwangzhaodejk4eRizwanMunawar

Kommentare