Zum Inhalt springen

Vergleichende Analyse der YOLO11-Bereitstellungsoptionen

Einführung

Sie haben auf Ihrer Reise mit YOLO11 einen langen Weg zurückgelegt. Sie haben fleißig Daten gesammelt, diese sorgfältig annotiert und Stunden in das Training und die rigorose Bewertung Ihres benutzerdefinierten YOLO11-Modells investiert. Jetzt ist es an der Zeit, Ihr Modell für Ihre spezifische Anwendung, Ihren Anwendungsfall oder Ihr Projekt einzusetzen. Aber es steht eine wichtige Entscheidung vor Ihnen: Wie exportieren und implementieren Sie Ihr Modell effektiv?



Ansehen: Wie man das beste Ultralytics YOLO11-Deployment-Format für Ihr Projekt auswählt | TensorRT | OpenVINO 🚀

Dieser Leitfaden führt Sie durch die Bereitstellungsoptionen von YOLO11 und die wesentlichen Faktoren, die Sie berücksichtigen sollten, um die richtige Option für Ihr Projekt auszuwählen.

So wählen Sie die richtige Bereitstellungsoption für Ihr YOLO11-Modell aus

Wenn es an der Zeit ist, Ihr YOLO11-Modell bereitzustellen, ist die Auswahl eines geeigneten Exportformats sehr wichtig. Wie in der Ultralytics YOLO11 Modes Dokumentation beschrieben, ermöglicht die Funktion model.export() die Konvertierung Ihres trainierten Modells in eine Vielzahl von Formaten, die auf unterschiedliche Umgebungen und Leistungsanforderungen zugeschnitten sind.

Das ideale Format hängt vom beabsichtigten operativen Kontext Ihres Modells ab, wobei Geschwindigkeit, Hardware-Beschränkungen und einfache Integration berücksichtigt werden müssen. Im folgenden Abschnitt werden wir uns jede Exportoption genauer ansehen und verstehen, wann welche Option zu wählen ist.

YOLO11's Bereitstellungsoptionen

Gehen wir die verschiedenen YOLO11-Bereitstellungsoptionen durch. Für eine detaillierte Beschreibung des Exportvorgangs besuchen Sie die Ultralytics-Dokumentationsseite zum Exportieren.

PyTorch

PyTorch ist eine Open-Source-Bibliothek für maschinelles Lernen, die häufig für Anwendungen im Bereich Deep Learning und künstliche Intelligenz eingesetzt wird. Sie bietet ein hohes Maß an Flexibilität und Geschwindigkeit, was sie zu einem Favoriten unter Forschern und Entwicklern gemacht hat.

  • Performance-Benchmarks: PyTorch ist bekannt für seine Benutzerfreundlichkeit und Flexibilität, was im Vergleich zu anderen, stärker spezialisierten und optimierten Frameworks zu leichten Einbußen bei der Rohleistung führen kann.
  • Kompatibilität und Integration: Bietet eine ausgezeichnete Kompatibilität mit verschiedenen Data-Science- und Machine-Learning-Bibliotheken in python.
  • Community-Support und Ökosystem: Eine der lebendigsten Communities mit umfangreichen Ressourcen zum Lernen und zur Fehlerbehebung.
  • Fallstudien: Wird häufig in Forschungsprototypen verwendet, wobei viele wissenschaftliche Arbeiten Modelle referenzieren, die in PyTorch eingesetzt werden.
  • Wartung und Aktualisierungen: Regelmäßige Aktualisierungen mit aktiver Entwicklung und Unterstützung für neue Funktionen.
  • Sicherheitsaspekte: Regelmäßige Patches für Sicherheitsprobleme, aber die Sicherheit hängt weitgehend von der Gesamtumgebung ab, in der es eingesetzt wird.
  • Hardwarebeschleunigung: Unterstützt CUDA für die GPU-Beschleunigung, die für die Beschleunigung des Modelltrainings und der Inferenz unerlässlich ist.

TorchScript

TorchScript erweitert die Fähigkeiten von PyTorch, indem es den Export von Modellen ermöglicht, die in einer C++-Laufzeitumgebung ausgeführt werden können. Dies macht es für Produktionsumgebungen geeignet, in denen Python nicht verfügbar ist.

  • Performance-Benchmarks: Kann eine verbesserte Leistung gegenüber nativem PyTorch bieten, insbesondere in Produktionsumgebungen.
  • Kompatibilität und Integration: Entwickelt für einen nahtlosen Übergang von PyTorch zu C++-Produktionsumgebungen, obwohl einige erweiterte Funktionen möglicherweise nicht perfekt übertragen werden.
  • Community-Support und Ökosystem: Profitiert von der großen PyTorch-Community, hat aber einen engeren Anwendungsbereich für spezialisierte Entwickler.
  • Fallstudien: Weit verbreitet in industriellen Umgebungen, in denen der Performance-Overhead von python ein Engpass ist.
  • Wartung und Aktualisierungen: Wird zusammen mit PyTorch mit konsistenten Aktualisierungen gepflegt.
  • Sicherheitsaspekte: Bietet verbesserte Sicherheit, da die Ausführung von Modellen in Umgebungen ohne vollständige Python-Installationen ermöglicht wird.
  • Hardwarebeschleunigung: Erbt die CUDA-Unterstützung von PyTorch und gewährleistet so eine effiziente GPU-Nutzung.

ONNX

Der Open Neural Network Exchange (ONNX) ist ein Format, das die Interoperabilität von Modellen über verschiedene Frameworks hinweg ermöglicht, was bei der Bereitstellung auf verschiedenen Plattformen entscheidend sein kann.

  • Performance-Benchmarks: ONNX-Modelle können je nach der spezifischen Laufzeitumgebung, in der sie eingesetzt werden, eine variable Leistung aufweisen.
  • Kompatibilität und Integration: Hohe Interoperabilität über mehrere Plattformen und Hardware hinweg aufgrund seiner Framework-unabhängigen Natur.
  • Community Support und Ökosystem: Wird von vielen Organisationen unterstützt, was zu einem breiten Ökosystem und einer Vielzahl von Tools zur Optimierung führt.
  • Fallstudien: Wird häufig verwendet, um Modelle zwischen verschiedenen Machine-Learning-Frameworks zu verschieben, was seine Flexibilität demonstriert.
  • Wartung und Aktualisierungen: Als offener Standard wird ONNX regelmäßig aktualisiert, um neue Operationen und Modelle zu unterstützen.
  • Sicherheitsüberlegungen: Wie bei jedem plattformübergreifenden Tool ist es wichtig, sichere Praktiken in der Konvertierungs- und Bereitstellungspipeline zu gewährleisten.
  • Hardwarebeschleunigung: Mit ONNX Runtime können Modelle verschiedene Hardwareoptimierungen nutzen.

OpenVINO

OpenVINO ist ein Intel Toolkit, das entwickelt wurde, um die Bereitstellung von Deep-Learning-Modellen auf Intel Hardware zu erleichtern und die Leistung und Geschwindigkeit zu verbessern.

  • Performance-Benchmarks: Speziell optimiert für Intel-CPUs, -GPUs und -VPUs und bietet erhebliche Leistungssteigerungen auf kompatibler Hardware.
  • Kompatibilität und Integration: Funktioniert am besten innerhalb des Intel-Ökosystems, unterstützt aber auch eine Reihe anderer Plattformen.
  • Community-Support und Ökosystem: Unterstützt von Intel, mit einer soliden Nutzerbasis, insbesondere im Bereich Computer Vision.
  • Fallstudien: Wird oft in IoT- und Edge-Computing-Szenarien eingesetzt, in denen Intel-Hardware weit verbreitet ist.
  • Wartung und Aktualisierungen: Intel aktualisiert OpenVINO regelmäßig, um die neuesten Deep-Learning-Modelle und Intel-Hardware zu unterstützen.
  • Sicherheitsaspekte: Bietet robuste Sicherheitsfunktionen, die für den Einsatz in sensiblen Anwendungen geeignet sind.
  • Hardwarebeschleunigung: Zugeschnitten auf die Beschleunigung auf Intel-Hardware unter Nutzung dedizierter Befehlssätze und Hardwarefunktionen.

Weitere Informationen zum Deployment mit OpenVINO finden Sie in der Ultralytics-Integrationsdokumentation: Intel OpenVINO Export.

TensorRT

TensorRT ist ein hochleistungsfähiger Deep-Learning-Inferenzoptimierer und eine Laufzeitumgebung von NVIDIA, ideal für Anwendungen, die Geschwindigkeit und Effizienz benötigen.

  • Performance-Benchmarks: Bietet erstklassige Leistung auf NVIDIA-GPUs mit Unterstützung für High-Speed-Inferenz.
  • Kompatibilität und Integration: Am besten geeignet für NVIDIA-Hardware, mit eingeschränkter Unterstützung außerhalb dieser Umgebung.
  • Community Support und Ökosystem: Starkes Support-Netzwerk durch die Entwicklerforen und die Dokumentation von NVIDIA.
  • Fallstudien: Weit verbreitet in Branchen, die Echtzeit-Inferenz auf Video- und Bilddaten benötigen.
  • Wartung und Aktualisierungen: NVIDIA pflegt TensorRT mit häufigen Aktualisierungen, um die Leistung zu verbessern und neue GPU-Architekturen zu unterstützen.
  • Sicherheitsaspekte: Wie viele NVIDIA-Produkte legt auch dieses großen Wert auf Sicherheit, wobei die Einzelheiten von der jeweiligen Einsatzumgebung abhängen.
  • Hardwarebeschleunigung: Exklusiv für NVIDIA-GPUs entwickelt und bietet tiefgreifende Optimierung und Beschleunigung.

Weitere Informationen zur TensorRT-Bereitstellung finden Sie im TensorRT-Integrationsleitfaden.

CoreML

CoreML ist Apples Framework für maschinelles Lernen, optimiert für die Leistung auf Geräten im Apple-Ökosystem, einschließlich iOS, macOS, watchOS und tvOS.

  • Performance-Benchmarks: Optimiert für On-Device-Performance auf Apple-Hardware mit minimalem Batterieverbrauch.
  • Kompatibilität und Integration: Exklusiv für das Apple-Ökosystem, das einen optimierten Workflow für iOS- und macOS-Anwendungen bietet.
  • Community Support und Ökosystem: Starker Support von Apple und einer engagierten Entwickler-Community mit umfangreicher Dokumentation und Tools.
  • Fallstudien: Wird häufig in Anwendungen verwendet, die On-Device-Machine-Learning-Funktionen auf Apple-Produkten erfordern.
  • Wartung und Aktualisierungen: Wird regelmäßig von Apple aktualisiert, um die neuesten Fortschritte im Bereich maschinelles Lernen und Apple-Hardware zu unterstützen.
  • Sicherheitsüberlegungen: Profitiert von Apples Fokus auf Benutzerdatenschutz und Datensicherheit.
  • Hardwarebeschleunigung: Nutzt die Neural Engine und die GPU von Apple voll aus, um maschinelle Lernaufgaben zu beschleunigen.

TF SavedModel

TF SavedModel ist das TensorFlow-Format zum Speichern und Bereitstellen von Modellen für maschinelles Lernen, das sich besonders für skalierbare Serverumgebungen eignet.

  • Performance-Benchmarks: Bietet skalierbare Leistung in Serverumgebungen, insbesondere bei Verwendung mit TensorFlow Serving.
  • Kompatibilität und Integration: Breite Kompatibilität im gesamten TensorFlow-Ökosystem, einschließlich Cloud- und Enterprise-Server-Bereitstellungen.
  • Community-Support und Ökosystem: Große Community-Unterstützung aufgrund der Popularität von TensorFlow, mit einer großen Auswahl an Tools für die Bereitstellung und Optimierung.
  • Fallstudien: Wird häufig in Produktionsumgebungen eingesetzt, um Deep-Learning-Modelle in großem Maßstab bereitzustellen.
  • Wartung und Aktualisierungen: Wird von Google und der TensorFlow-Community unterstützt, wodurch regelmäßige Aktualisierungen und neue Funktionen gewährleistet werden.
  • Sicherheitsüberlegungen: Die Bereitstellung mit TensorFlow Serving umfasst robuste Sicherheitsfunktionen für Anwendungen auf Enterprise-Niveau.
  • Hardwarebeschleunigung: Unterstützt verschiedene Hardwarebeschleunigungen über die Backends von TensorFlow.

TF GraphDef

TF GraphDef ist ein TensorFlow-Format, das das Modell als Graph darstellt, was in Umgebungen, in denen ein statischer Berechnungsgraph erforderlich ist, von Vorteil ist.

  • Performance-Benchmarks: Bietet stabile Leistung für statische Berechnungsgraphen, mit Fokus auf Konsistenz und Zuverlässigkeit.
  • Kompatibilität und Integration: Lässt sich problemlos in die TensorFlow-Infrastruktur integrieren, ist aber im Vergleich zu SavedModel weniger flexibel.
  • Community-Support und Ökosystem: Gute Unterstützung durch das TensorFlow-Ökosystem, mit vielen Ressourcen zur Optimierung statischer Graphen.
  • Fallstudien: Nützlich in Szenarien, in denen ein statischer Graph erforderlich ist, wie z. B. in bestimmten eingebetteten Systemen.
  • Wartung und Aktualisierungen: Regelmäßige Aktualisierungen zusammen mit den Kernaktualisierungen von TensorFlow.
  • Sicherheitsüberlegungen: Gewährleistet eine sichere Bereitstellung mit den etablierten Sicherheitspraktiken von TensorFlow.
  • Hardwarebeschleunigung: Kann die Hardwarebeschleunigungsoptionen von TensorFlow nutzen, ist aber nicht so flexibel wie SavedModel.

Erfahren Sie mehr über TF GraphDef in unserem TF GraphDef-Integrationsleitfaden.

TF Lite

TF Lite ist die TensorFlow-Lösung für maschinelles Lernen auf mobilen und eingebetteten Geräten und bietet eine schlanke Bibliothek für die Inferenz auf dem Gerät.

  • Performance-Benchmarks: Entwickelt für Geschwindigkeit und Effizienz auf mobilen und eingebetteten Geräten.
  • Kompatibilität und Integration: Kann aufgrund seiner Leichtbauweise auf einer Vielzahl von Geräten eingesetzt werden.
  • Community-Support und Ökosystem: Unterstützt von Google, verfügt es über eine robuste Community und eine wachsende Anzahl von Ressourcen für Entwickler.
  • Fallstudien: Beliebt in mobilen Anwendungen, die On-Device-Inferenz mit minimalem Footprint erfordern.
  • Wartung und Aktualisierungen: Wird regelmäßig aktualisiert, um die neuesten Funktionen und Optimierungen für mobile Geräte zu integrieren.
  • Sicherheitsaspekte: Bietet eine sichere Umgebung für die Ausführung von Modellen auf Endbenutzergeräten.
  • Hardwarebeschleunigung: Unterstützt eine Vielzahl von Hardwarebeschleunigungsoptionen, einschließlich GPU und DSP.

TF Edge TPU

TF Edge TPU ist für schnelles, effizientes Computing auf der Edge TPU-Hardware von Google konzipiert und eignet sich perfekt für IoT-Geräte, die Echtzeitverarbeitung benötigen.

  • Performance-Benchmarks: Speziell optimiert für schnelles, effizientes Computing auf Googles Edge TPU-Hardware.
  • Kompatibilität und Integration: Funktioniert ausschließlich mit TensorFlow Lite-Modellen auf Edge TPU-Geräten.
  • Community-Support und Ökosystem: Wachsende Unterstützung mit Ressourcen, die von Google und Drittentwicklern bereitgestellt werden.
  • Fallstudien: Wird in IoT-Geräten und -Anwendungen verwendet, die eine Echtzeitverarbeitung mit geringer Latenz erfordern.
  • Wartung und Aktualisierungen: Wird kontinuierlich verbessert, um die Fähigkeiten neuer Edge TPU-Hardwareversionen zu nutzen.
  • Sicherheitsüberlegungen: Integriert sich in die robuste Sicherheit von Google für IoT- und Edge-Geräte.
  • Hardwarebeschleunigung: Speziell entwickelt, um die Vorteile von Google Coral-Geräten voll auszuschöpfen.

TF.js

TensorFlow.js (TF.js) ist eine Bibliothek, die Machine-Learning-Funktionen direkt in den Browser bringt und Webentwicklern und -benutzern gleichermaßen neue Möglichkeiten bietet. Sie ermöglicht die Integration von Machine-Learning-Modellen in Webanwendungen, ohne dass eine Back-End-Infrastruktur erforderlich ist.

  • Performance-Benchmarks: Ermöglicht maschinelles Lernen direkt im Browser mit angemessener Leistung, abhängig vom Client-Gerät.
  • Kompatibilität und Integration: Hohe Kompatibilität mit Webtechnologien, die eine einfache Integration in Webanwendungen ermöglicht.
  • Community Support und Ökosystem: Unterstützung durch eine Community von Web- und Node.js-Entwicklern mit einer Vielzahl von Tools für die Bereitstellung von ML-Modellen in Browsern.
  • Fallstudien: Ideal für interaktive Webanwendungen, die von Client-seitigem Machine Learning profitieren, ohne dass eine Server-seitige Verarbeitung erforderlich ist.
  • Wartung und Aktualisierungen: Wird vom TensorFlow-Team mit Beiträgen aus der Open-Source-Community gepflegt.
  • Sicherheitsaspekte: Läuft im sicheren Kontext des Browsers und nutzt das Sicherheitsmodell der Webplattform.
  • Hardwarebeschleunigung: Die Leistung kann mit webbasierten APIs verbessert werden, die auf Hardwarebeschleunigung wie WebGL zugreifen.

PaddlePaddle

PaddlePaddle ist ein Open-Source-Deep-Learning-Framework, das von Baidu entwickelt wurde. Es ist sowohl effizient für Forscher als auch einfach zu bedienen für Entwickler konzipiert. Es ist besonders in China beliebt und bietet spezielle Unterstützung für die chinesische Sprachverarbeitung.

  • Performance-Benchmarks: Bietet wettbewerbsfähige Leistung mit Fokus auf Benutzerfreundlichkeit und Skalierbarkeit.
  • Kompatibilität und Integration: Gut in das Baidu-Ökosystem integriert und unterstützt eine breite Palette von Anwendungen.
  • Community Support und Ökosystem: Obwohl die Community global kleiner ist, wächst sie rasant, insbesondere in China.
  • Fallstudien: Wird häufig auf chinesischen Märkten und von Entwicklern verwendet, die nach Alternativen zu anderen wichtigen Frameworks suchen.
  • Wartung und Aktualisierungen: Wird regelmäßig aktualisiert, wobei der Schwerpunkt auf der Bereitstellung von KI-Anwendungen und -Diensten in chinesischer Sprache liegt.
  • Sicherheitsüberlegungen: Betont den Datenschutz und die Sicherheit und berücksichtigt die chinesischen Standards für die Datenverwaltung.
  • Hardwarebeschleunigung: Unterstützt verschiedene Hardwarebeschleunigungen, einschließlich Baidus eigenen Kunlun-Chips.

MNN

MNN ist ein hocheffizientes und schlankes Deep-Learning-Framework. Es unterstützt Inferenz und Training von Deep-Learning-Modellen und bietet branchenführende Leistung für Inferenz und On-Device-Training. Darüber hinaus wird MNN auch auf eingebetteten Geräten wie IoT eingesetzt.

  • Leistungsbenchmarks: Hohe Leistung für mobile Geräte mit ausgezeichneter Optimierung für ARM-Systeme.
  • Kompatibilität und Integration: Funktioniert gut mit mobilen und eingebetteten ARM-Systemen und X86-64 CPU-Architekturen.
  • Community-Support und Ökosystem: Wird von der Mobile- und Embedded-Machine-Learning-Community unterstützt.
  • Fallstudien: Ideal für Anwendungen, die eine effiziente Leistung auf mobilen Systemen erfordern.
  • Wartung und Aktualisierungen: Wird regelmäßig gewartet, um eine hohe Leistung auf mobilen Geräten zu gewährleisten.
  • Sicherheitsaspekte: Bietet On-Device-Sicherheitsvorteile, da die Daten lokal gespeichert werden.
  • Hardwarebeschleunigung: Optimiert für ARM-CPUs und -GPUs für maximale Effizienz.

NCNN

NCNN ist ein hochleistungsfähiges Framework für die Inferenz neuronaler Netze, das für die mobile Plattform optimiert ist. Es zeichnet sich durch seine Leichtgewichtigkeit und Effizienz aus und eignet sich daher besonders gut für mobile und eingebettete Geräte, bei denen die Ressourcen begrenzt sind.

  • Performance-Benchmarks: Hochgradig optimiert für mobile Plattformen und bietet effiziente Inferenz auf ARM-basierten Geräten.
  • Kompatibilität und Integration: Geeignet für Anwendungen auf Mobiltelefonen und eingebetteten Systemen mit ARM-Architektur.
  • Community Support und Ökosystem: Unterstützt durch eine Nischen-Community, die sich auf mobile und eingebettete ML-Anwendungen konzentriert.
  • Fallstudien: Bevorzugt für mobile Anwendungen, bei denen Effizienz und Geschwindigkeit auf Android und anderen ARM-basierten Systemen entscheidend sind.
  • Wartung und Aktualisierungen: Kontinuierlich verbessert, um eine hohe Leistung auf einer Reihe von ARM-Geräten aufrechtzuerhalten.
  • Sicherheitsüberlegungen: Konzentriert sich auf die lokale Ausführung auf dem Gerät und nutzt die inhärente Sicherheit der On-Device-Verarbeitung.
  • Hardwarebeschleunigung: Zugeschnitten auf ARM-CPUs und -GPUs mit spezifischen Optimierungen für diese Architekturen.

Vergleichende Analyse der YOLO11-Bereitstellungsoptionen

Die folgende Tabelle bietet eine Übersicht über die verschiedenen Bereitstellungsoptionen, die für YOLO11-Modelle verfügbar sind, und hilft Ihnen bei der Beurteilung, welche am besten zu Ihren Projektanforderungen passen, basierend auf verschiedenen kritischen Kriterien. Für einen detaillierten Einblick in das Format jeder Bereitstellungsoption lesen Sie bitte die Ultralytics-Dokumentationsseite zu Exportformaten.

Bereitstellungsoption Leistungsbenchmarks Kompatibilität und Integration Community-Support und Ökosystem Fallstudien Wartung und Aktualisierungen Sicherheitsüberlegungen Hardwarebeschleunigung
PyTorch Gute Flexibilität; kann die Rohleistung beeinträchtigen Ausgezeichnete Python-Bibliotheken Umfangreiche Ressourcen und Community Forschung und Prototypen Regelmäßige, aktive Entwicklung Abhängig von der Einsatzumgebung CUDA-Unterstützung für GPU-Beschleunigung
TorchScript Besser für die Produktion als PyTorch Reibungsloser Übergang von PyTorch zu C++ Spezialisiert, aber schmaler als PyTorch Industrie, in der python ein Engpass ist Konsistente Updates mit PyTorch Verbesserte Sicherheit ohne vollständiges Python Übernimmt CUDA-Unterstützung von PyTorch
ONNX Variable, abhängig von der Laufzeit Hoch über verschiedene Frameworks hinweg Breites Ökosystem, unterstützt von vielen Organisationen Flexibilität über ML-Frameworks hinweg Regelmäßige Updates für neue Operationen Sichere Konvertierungs- und Bereitstellungspraktiken gewährleisten Verschiedene Hardwareoptimierungen
OpenVINO Optimiert für Intel Hardware Am besten innerhalb des Intel-Ökosystems Solide im Bereich Computer Vision IoT und Edge mit Intel-Hardware Regelmäßige Updates für Intel-Hardware Robuste Funktionen für sensible Anwendungen Zugeschnitten auf Intel Hardware
TensorRT Erstklassig auf NVIDIA GPUs Am besten für NVIDIA-Hardware Starkes Netzwerk durch NVIDIA Echtzeit-Video- und Bildinferenz Häufige Aktualisierungen für neue GPUs Betonung der Sicherheit Entwickelt für NVIDIA GPUs
CoreML Optimiert für On-Device Apple Hardware Exklusiv für das Apple-Ökosystem Starker Apple- und Entwickler-Support On-Device ML auf Apple-Produkten Regelmäßige Apple-Updates Fokus auf Datenschutz und Sicherheit Apple Neural Engine und GPU
TF SavedModel Skalierbar in Serverumgebungen Breite Kompatibilität im TensorFlow-Ökosystem Große Unterstützung aufgrund der Popularität von TensorFlow Bereitstellung von Modellen in großem Maßstab Regelmäßige Updates von Google und der Community Robuste Funktionen für Unternehmen Verschiedene Hardwarebeschleunigungen
TF GraphDef Stabil für statische Berechnungsgraphen Lässt sich gut in die TensorFlow-Infrastruktur integrieren Ressourcen zur Optimierung statischer Graphen Szenarien, die statische Graphen erfordern Aktualisierungen zusammen mit TensorFlow Core Etablierte TensorFlow-Sicherheitspraktiken TensorFlow-Beschleunigungsoptionen
TF Lite Geschwindigkeit und Effizienz auf mobilen/eingebetteten Systemen Breite Palette an Geräteunterstützung Starke Community, unterstützt von Google Mobile Anwendungen mit minimalem Footprint Neueste Funktionen für Mobilgeräte Sichere Umgebung auf Endbenutzergeräten GPU und DSP unter anderem
TF Edge TPU Optimiert für Googles Edge TPU Hardware Exklusiv für Edge TPU-Geräte Wachsen mit Google und Ressourcen von Drittanbietern IoT-Geräte, die Echtzeitverarbeitung benötigen Verbesserungen für neue Edge TPU Hardware Googles robuste IoT-Sicherheit Kundenspezifisch entwickelt für Google Coral
TF.js Angemessene In-Browser-Performance Hoch mit Webtechnologien Web- und Node.js-Entwickler-Support Interaktive Webanwendungen TensorFlow-Team- und Community-Beiträge Sicherheitsmodell für Webplattformen Erweitert mit WebGL und anderen APIs
PaddlePaddle Wettbewerbsfähig, einfach zu bedienen und skalierbar Baidu-Ökosystem, breite Anwendungsunterstützung Schnell wachsend, besonders in China Chinesischer Markt und Sprachverarbeitung Fokus auf chinesische KI-Anwendungen Betont den Datenschutz und die Sicherheit Einschließlich Baidus Kunlun-Chips
MNN Hohe Leistung für mobile Geräte. Mobile und eingebettete ARM-Systeme und X86-64 CPU Mobile/Embedded ML Community Effizienz mobiler Systeme Hochleistungs-Wartung auf mobilen Geräten Sicherheitsvorteile auf dem Gerät ARM CPUs und GPUs Optimierungen
NCNN Optimiert für mobile ARM-basierte Geräte Mobile und eingebettete ARM-Systeme Nischen- aber aktive Mobile/Embedded-ML-Community Android- und ARM-Systemeffizienz Hochleistungs-Wartung auf ARM Sicherheitsvorteile auf dem Gerät ARM CPUs und GPUs Optimierungen

Diese vergleichende Analyse bietet Ihnen einen allgemeinen Überblick. Für die Bereitstellung ist es wichtig, die spezifischen Anforderungen und Einschränkungen Ihres Projekts zu berücksichtigen und die detaillierte Dokumentation und die für jede Option verfügbaren Ressourcen zu konsultieren.

Community und Support

Wenn Sie mit YOLO11 beginnen, kann eine hilfreiche Community und Unterstützung einen erheblichen Einfluss haben. Hier erfahren Sie, wie Sie mit anderen in Kontakt treten, die Ihre Interessen teilen, und die Unterstützung erhalten, die Sie benötigen.

Austausch mit der breiteren Community

  • GitHub-Diskussionen: Das YOLO11-Repository auf GitHub verfügt über einen Abschnitt "Discussions", in dem Sie Fragen stellen, Probleme melden und Verbesserungen vorschlagen können.
  • Ultralytics Discord Server: Ultralytics verfügt über einen Discord Server, auf dem Sie mit anderen Benutzern und Entwicklern interagieren können.

Offizielle Dokumentation und Ressourcen

  • Ultralytics YOLO11 Docs: Die offizielle Dokumentation bietet einen umfassenden Überblick über YOLO11 sowie Anleitungen zur Installation, Verwendung und Fehlerbehebung.

Diese Ressourcen helfen Ihnen, Herausforderungen zu meistern und über die neuesten Trends und Best Practices in der YOLO11-Community auf dem Laufenden zu bleiben.

Fazit

In dieser Anleitung haben wir die verschiedenen Bereitstellungsoptionen für YOLO11 untersucht. Wir haben auch die wichtigen Faktoren besprochen, die bei Ihrer Wahl zu berücksichtigen sind. Diese Optionen ermöglichen es Ihnen, Ihr Modell für verschiedene Umgebungen und Leistungsanforderungen anzupassen, wodurch es für reale Anwendungen geeignet ist.

Vergessen Sie nicht, dass die YOLO11- und Ultralytics-Community eine wertvolle Hilfequelle ist. Vernetzen Sie sich mit anderen Entwicklern und Experten, um einzigartige Tipps und Lösungen zu erhalten, die Sie möglicherweise nicht in der regulären Dokumentation finden. Suchen Sie weiter nach Wissen, erforschen Sie neue Ideen und teilen Sie Ihre Erfahrungen.

Viel Spaß beim Deployment!

FAQ

Welche Bereitstellungsoptionen stehen für YOLO11 auf verschiedenen Hardwareplattformen zur Verfügung?

Ultralytics YOLO11 unterstützt verschiedene Bereitstellungsformate, die jeweils für spezifische Umgebungen und Hardwareplattformen entwickelt wurden. Zu den wichtigsten Formaten gehören:

  • PyTorch für Forschung und Prototyping, mit ausgezeichneter Python-Integration.
  • TorchScript für Produktionsumgebungen, in denen python nicht verfügbar ist.
  • ONNX für plattformübergreifende Kompatibilität und Hardwarebeschleunigung.
  • OpenVINO für optimierte Leistung auf Intel-Hardware.
  • TensorRT für High-Speed-Inferenz auf NVIDIA GPUs.

Jedes Format hat einzigartige Vorteile. Eine detaillierte Anleitung finden Sie in unserer Exportprozessdokumentation.

Wie kann ich die Inferenzgeschwindigkeit meines YOLO11-Modells auf einer Intel CPU verbessern?

Um die Inferenzgeschwindigkeit auf Intel CPUs zu erhöhen, können Sie Ihr YOLO11-Modell mit dem OpenVINO-Toolkit von Intel bereitstellen. OpenVINO bietet erhebliche Leistungssteigerungen durch die Optimierung von Modellen, um die Intel-Hardware effizient zu nutzen.

  1. Konvertieren Sie Ihr YOLO11-Modell mit dem in das OpenVINO-Format model.export() Funktion.
  2. Befolgen Sie die detaillierte Einrichtungsanleitung in der Intel OpenVINO Export Dokumentation.

Weitere Einblicke finden Sie in unserem Blog-Post.

Kann ich YOLO11-Modelle auf mobilen Geräten einsetzen?

Ja, YOLO11-Modelle können auf mobilen Geräten mit TensorFlow Lite (TF Lite) für sowohl Android- als auch iOS-Plattformen bereitgestellt werden. TF Lite wurde für mobile und eingebettete Geräte entwickelt und bietet eine effiziente On-Device-Inferenz.

Beispiel

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Weitere Informationen zum Deployment von Modellen auf mobilen Geräten finden Sie in unserem TF Lite-Integrationsleitfaden.

Welche Faktoren sollte ich bei der Auswahl eines Bereitstellungsformats für mein YOLO11-Modell berücksichtigen?

Berücksichtigen Sie bei der Auswahl eines Deployment-Formats für YOLO11 die folgenden Faktoren:

  • Performance: Einige Formate wie TensorRT bieten außergewöhnliche Geschwindigkeiten auf NVIDIA-GPUs, während OpenVINO für Intel-Hardware optimiert ist.
  • Kompatibilität: ONNX bietet eine breite Kompatibilität über verschiedene Plattformen hinweg.
  • Einfache Integration: Formate wie CoreML oder TF Lite sind auf spezifische Ökosysteme wie iOS bzw. Android zugeschnitten.
  • Community Support: Formate wie PyTorch und TensorFlow verfügen über umfangreiche Community-Ressourcen und Support.

Für eine vergleichende Analyse konsultieren Sie unsere Exportformate Dokumentation.

Wie kann ich YOLO11-Modelle in einer Webanwendung bereitstellen?

Um YOLO11 Modelle in einer Webanwendung bereitzustellen, können Sie TensorFlow.js (TF.js) verwenden, wodurch Machine-Learning-Modelle direkt im Browser ausgeführt werden können. Dieser Ansatz macht eine Backend-Infrastruktur überflüssig und bietet Echtzeit-Performance.

  1. Exportieren Sie das YOLO11-Modell in das TF.js-Format.
  2. Integrieren Sie das exportierte Modell in Ihre Webanwendung.

Eine Schritt-für-Schritt-Anleitung finden Sie in unserem Leitfaden zur TensorFlow.js-Integration.



📅 Vor 1 Jahr erstellt ✏️ Vor 3 Monaten aktualisiert

Kommentare