Zum Inhalt springen

Verstehen der Einsatzoptionen von YOLO11

Einführung

Sie haben auf Ihrer Reise mit YOLO11 einen weiten Weg zurückgelegt. Sie haben fleißig Daten gesammelt, sie akribisch kommentiert und viele Stunden investiert, um Ihr benutzerdefiniertes YOLO11 Modell zu trainieren und gründlich zu evaluieren. Jetzt ist es an der Zeit, Ihr Modell für Ihre spezifische Anwendung, Ihren Anwendungsfall oder Ihr Projekt einzusetzen. Es gibt jedoch eine wichtige Entscheidung, die Sie treffen müssen: Wie können Sie Ihr Modell exportieren und effektiv einsetzen?

Dieser Leitfaden führt Sie durch die Bereitstellungsoptionen von YOLO11 und die wesentlichen Faktoren, die Sie bei der Auswahl der richtigen Option für Ihr Projekt berücksichtigen müssen.

Wie Sie die richtige Bereitstellungsoption für Ihr YOLO11 Modell auswählen

Wenn es an der Zeit ist, Ihr YOLO11 Modell einzusetzen, ist die Auswahl eines geeigneten Exportformats sehr wichtig. Wie in der DokumentationUltralytics YOLO11 Modi beschrieben, ermöglicht die Funktion model.export() die Konvertierung Ihres trainierten Modells in eine Vielzahl von Formaten, die auf unterschiedliche Umgebungen und Leistungsanforderungen zugeschnitten sind.

Das ideale Format hängt vom beabsichtigten Betriebskontext Ihres Modells ab, wobei Geschwindigkeit, Hardwarebeschränkungen und einfache Integration berücksichtigt werden müssen. Im folgenden Abschnitt werden wir uns die einzelnen Exportoptionen genauer ansehen und verstehen, wann man sich für eine davon entscheiden sollte.

YOLO11Bereitstellungsoptionen

Gehen wir nun die verschiedenen Bereitstellungsoptionen von YOLO11 durch. Eine ausführliche Beschreibung des Exportvorgangs finden Sie auf der DokumentationsseiteUltralytics zum Thema Exportieren.

PyTorch

PyTorch ist eine Open-Source-Bibliothek für maschinelles Lernen, die häufig für Anwendungen im Bereich Deep Learning und künstliche Intelligenz verwendet wird. Sie bietet ein hohes Maß an Flexibilität und Geschwindigkeit, was sie zu einem Favoriten unter Forschern und Entwicklern gemacht hat.

  • Leistungs-Benchmarks: PyTorch ist für seine Benutzerfreundlichkeit und Flexibilität bekannt, was im Vergleich zu anderen, spezialisierteren und optimierten Frameworks zu einem leichten Kompromiss bei der reinen Leistung führen kann.

  • Kompatibilität und Integration: Bietet hervorragende Kompatibilität mit verschiedenen Data-Science- und Machine-Learning-Bibliotheken in Python.

  • Community-Unterstützung und Ökosystem: Eine der dynamischsten Communities mit umfangreichen Ressourcen zum Lernen und zur Fehlerbehebung.

  • Fallstudien: In vielen akademischen Arbeiten wird auf Modelle verwiesen, die in PyTorch eingesetzt werden.

  • Wartung und Updates: Regelmäßige Updates mit aktiver Entwicklung und Unterstützung für neue Funktionen.

  • Sicherheitserwägungen: Regelmäßige Patches für Sicherheitsprobleme, aber die Sicherheit hängt weitgehend von der Gesamtumgebung ab, in der es eingesetzt wird.

  • Hardware-Beschleunigung: Unterstützt CUDA für die Beschleunigung von GPU , die für die Beschleunigung von Modelltraining und Inferenz unerlässlich ist.

TorchScript

TorchScript erweitert die Möglichkeiten von PyTorch, indem es den Export von Modellen zur Ausführung in einer C++-Laufzeitumgebung ermöglicht. Dies macht es für Produktionsumgebungen geeignet, in denen Python nicht verfügbar ist.

  • Leistungsvergleiche: Kann eine bessere Leistung als die native PyTorch bieten, insbesondere in Produktionsumgebungen.

  • Kompatibilität und Integration: Entwickelt für den nahtlosen Übergang von PyTorch zu C++-Produktionsumgebungen, auch wenn einige erweiterte Funktionen möglicherweise nicht perfekt übertragen werden können.

  • Community-Unterstützung und Ökosystem: Profitiert von der großen Community von PyTorch, hat aber einen engeren Kreis von spezialisierten Entwicklern.

  • Fallstudien: Weit verbreitet in der Industrie, wo der Leistungs-Overhead von Python einen Engpass darstellt.

  • Wartung und Updates: Gepflegt neben PyTorch mit ständigen Aktualisierungen.

  • Sicherheitsaspekte: Bietet verbesserte Sicherheit, indem es die Ausführung von Modellen in Umgebungen ohne vollständige Python Installationen ermöglicht.

  • Hardware-Beschleunigung: Vererbt die Unterstützung von PyTorch CUDA und gewährleistet eine effiziente Nutzung von GPU .

ONNX

Das Open Neural Network Exchange (ONNX) ist ein Format, das die Interoperabilität von Modellen zwischen verschiedenen Frameworks ermöglicht, was bei der Bereitstellung auf verschiedenen Plattformen von entscheidender Bedeutung sein kann.

  • Leistungsbenchmarks: ONNX Modelle können je nach der spezifischen Laufzeit, auf der sie eingesetzt werden, eine unterschiedliche Leistung aufweisen.

  • Kompatibilität und Integration: Hohe Interoperabilität über mehrere Plattformen und Hardware hinweg aufgrund der rahmenunabhängigen Natur.

  • Gemeinschaftliche Unterstützung und Ökosystem: Unterstützt von vielen Organisationen, was zu einem breiten Ökosystem und einer Vielzahl von Tools zur Optimierung führt.

  • Fallstudien: Häufig verwendet, um Modelle zwischen verschiedenen Frameworks für maschinelles Lernen zu verschieben, was seine Flexibilität demonstriert.

  • Wartung und Updates: Da es sich um einen offenen Standard handelt, wird ONNX regelmäßig aktualisiert, um neue Vorgänge und Modelle zu unterstützen.

  • Sicherheitsaspekte: Wie bei jedem plattformübergreifenden Tool ist es wichtig, sichere Verfahren für die Konvertierung und Bereitstellung zu gewährleisten.

  • Hardware-Beschleunigung: Mit ONNX Runtime können die Modelle verschiedene Hardware-Optimierungen nutzen.

OpenVINO

OpenVINO ist ein Intel Toolkit, das den Einsatz von Deep-Learning-Modellen auf Intel Hardware erleichtert und die Leistung und Geschwindigkeit erhöht.

  • Leistungs-Benchmarks: Speziell optimiert für Intel CPUs, GPUs und VPUs, die auf kompatibler Hardware erhebliche Leistungssteigerungen bieten.

  • Kompatibilität und Integration: Funktioniert am besten innerhalb des Intel Ökosystems, unterstützt aber auch eine Reihe anderer Plattformen.

  • Gemeinschaftliche Unterstützung und Ökosystem: Unterstützt von Intel, mit einer soliden Nutzerbasis, insbesondere im Bereich der Computer Vision.

  • Fallstudien: Wird häufig in IoT- und Edge-Computing-Szenarien eingesetzt, in denen die Hardware von Intel weit verbreitet ist.

  • Wartung und Updates: Intel aktualisiert OpenVINO regelmäßig, um die neuesten Deep-Learning-Modelle und Intel Hardware zu unterstützen.

  • Sicherheitsaspekte: Bietet robuste Sicherheitsfunktionen für den Einsatz in sensiblen Anwendungen.

  • Hardware-Beschleunigung: Maßgeschneidert für die Beschleunigung auf Intel Hardware, unter Nutzung spezieller Befehlssätze und Hardwarefunktionen.

Weitere Einzelheiten zur Bereitstellung mit OpenVINO finden Sie in der Dokumentation Ultralytics Integration: Intel OpenVINO Exportieren.

TensorRT

TensorRT ist ein hochleistungsfähiger Deep-Learning-Optimierer und eine Laufzeitumgebung von NVIDIA, ideal für Anwendungen, die Geschwindigkeit und Effizienz erfordern.

  • Leistungs-Benchmarks: Bietet Spitzenleistung auf NVIDIA GPUs mit Unterstützung für Hochgeschwindigkeitsinferenzen.

  • Kompatibilität und Integration: Am besten geeignet für NVIDIA Hardware, mit begrenzter Unterstützung außerhalb dieser Umgebung.

  • Gemeinschaftliche Unterstützung und Ökosystem: Starkes Support-Netzwerk durch die Entwicklerforen und die Dokumentation von NVIDIA.

  • Fallstudien: Weit verbreitet in Branchen, die Echtzeit-Inferenz auf Video- und Bilddaten benötigen.

  • Wartung und Updates: NVIDIA pflegt TensorRT mit regelmäßigen Updates, um die Leistung zu verbessern und neue GPU Architekturen zu unterstützen.

  • Sicherheitserwägungen: Wie bei vielen Produkten von NVIDIA liegt der Schwerpunkt auf der Sicherheit, aber die Einzelheiten hängen von der Einsatzumgebung ab.

  • Hardware-Beschleunigung: Exklusiv für NVIDIA GPUs entwickelt, bietet es tiefgreifende Optimierung und Beschleunigung.

CoreML

CoreML ist Apples Framework für maschinelles Lernen, das für die Leistung auf Geräten im Apple-Ökosystem optimiert ist, einschließlich iOS, macOS, watchOS und tvOS.

  • Leistungs-Benchmarks: Optimiert für On-Device-Leistung auf Apple-Hardware bei minimalem Batterieverbrauch.

  • Kompatibilität und Integration: Exklusiv für das Apple-Ökosystem, das einen optimierten Workflow für iOS und macOS-Anwendungen bietet.

  • Community-Unterstützung und Ökosystem: Starke Unterstützung durch Apple und eine engagierte Entwicklergemeinschaft mit umfangreicher Dokumentation und Werkzeugen.

  • Fallstudien: Wird häufig in Anwendungen verwendet, die geräteinterne maschinelle Lernfunktionen auf Apple-Produkten erfordern.

  • Wartung und Updates: Regelmäßig von Apple aktualisiert, um die neuesten Entwicklungen im Bereich maschinelles Lernen und Apple Hardware zu unterstützen.

  • Sicherheitsaspekte: Profitiert von Apples Fokus auf Datenschutz und Datensicherheit.

  • Hardware-Beschleunigung: Nutzt die Vorteile der neuronalen Engine von Apple und GPU für beschleunigte maschinelle Lernaufgaben.

TF SavedModel

TF SavedModel ist das Format von TensorFlow zum Speichern und Bereitstellen von Modellen für maschinelles Lernen, das sich besonders für skalierbare Serverumgebungen eignet.

  • Leistungs-Benchmarks: Bietet skalierbare Leistung in Serverumgebungen, insbesondere in Verbindung mit TensorFlow Serving.

  • Kompatibilität und Integration: Umfassende Kompatibilität im gesamten Ökosystem von TensorFlow, einschließlich Cloud- und Unternehmensserver-Implementierungen.

  • Unterstützung der Gemeinschaft und Ökosystem: Große Community-Unterstützung aufgrund der Popularität von TensorFlow mit einer Vielzahl von Tools für die Bereitstellung und Optimierung.

  • Fallstudien: Umfassende Nutzung in Produktionsumgebungen zur Bereitstellung von Deep-Learning-Modellen in großem Umfang.

  • Wartung und Updates: Unterstützt von Google und der TensorFlow Community, um regelmäßige Updates und neue Funktionen zu gewährleisten.

  • Sicherheitserwägungen: Die Bereitstellung mit TensorFlow Serving umfasst robuste Sicherheitsfunktionen für Anwendungen auf Unternehmensniveau.

  • Hardware-Beschleunigung: Unterstützt verschiedene Hardware-Beschleunigungen durch TensorFlow's Backends.

TF GraphDef

TF GraphDef ist ein TensorFlow Format, das das Modell als Graph darstellt, was für Umgebungen von Vorteil ist, in denen ein statischer Berechnungsgraph erforderlich ist.

  • Leistungs-Benchmarks: Bietet eine stabile Leistung für statische Berechnungsgraphen, wobei der Schwerpunkt auf Konsistenz und Zuverlässigkeit liegt.

  • Kompatibilität und Integration: Lässt sich leicht in die Infrastruktur von TensorFlow integrieren, ist aber im Vergleich zu SavedModel weniger flexibel.

  • Unterstützung durch die Gemeinschaft und das Ökosystem: Gute Unterstützung durch das Ökosystem von TensorFlow, mit vielen verfügbaren Ressourcen zur Optimierung statischer Graphen.

  • Fallstudien: Nützlich in Szenarien, in denen ein statischer Graph erforderlich ist, wie z. B. in bestimmten eingebetteten Systemen.

  • Wartung und Updates: Regelmäßige Updates zusammen mit den Hauptupdates von TensorFlow.

  • Sicherheitserwägungen: Gewährleistet eine sichere Bereitstellung mit den bewährten Sicherheitspraktiken von TensorFlow.

  • Hardware-Beschleunigung: Kann die Hardware-Beschleunigungsoptionen von TensorFlow nutzen, ist aber nicht so flexibel wie SavedModel.

TF Lite

TF Lite ist die Lösung von TensorFlow für das maschinelle Lernen auf mobilen und eingebetteten Geräten, die eine leichtgewichtige Bibliothek für Inferenzen auf dem Gerät bereitstellt.

  • Leistungs-Benchmarks: Entwickelt für Geschwindigkeit und Effizienz auf mobilen und eingebetteten Geräten.

  • Kompatibilität und Integration: Aufgrund seines geringen Gewichts kann es auf einer Vielzahl von Geräten verwendet werden.

  • Community-Unterstützung und Ökosystem: Unterstützt von Google, verfügt es über eine solide Community und eine wachsende Anzahl von Ressourcen für Entwickler.

  • Fallstudien: Beliebt bei mobilen Anwendungen, die eine geräteinterne Inferenz mit minimalem Platzbedarf erfordern.

  • Wartung und Updates: Regelmäßig aktualisiert, um die neuesten Funktionen und Optimierungen für mobile Geräte einzubeziehen.

  • Sicherheitserwägungen: Bietet eine sichere Umgebung für die Ausführung von Modellen auf Endbenutzergeräten.

  • Hardware-Beschleunigung: Unterstützt eine Vielzahl von Hardware-Beschleunigungsoptionen, einschließlich GPU und DSP.

TF Kante TPU

TF Edge TPU wurde für schnelle, effiziente Berechnungen auf der Edge-Hardware Google TPU entwickelt und eignet sich perfekt für IoT-Geräte, die Echtzeitverarbeitung benötigen.

  • Leistungs-Benchmarks: Speziell optimiert für schnelle, effiziente Berechnungen auf Google's Edge TPU Hardware.

  • Kompatibilität und Integration: Funktioniert ausschließlich mit TensorFlow Lite Modellen auf Edge TPU Geräten.

  • Community-Unterstützung und Ökosystem: Wachsende Unterstützung durch Ressourcen, die von Google und Drittentwicklern bereitgestellt werden.

  • Fallstudien: Einsatz in IoT-Geräten und Anwendungen, die Echtzeitverarbeitung mit geringer Latenz erfordern.

  • Wartung und Updates: Kontinuierliche Verbesserung, um die Fähigkeiten neuer Edge TPU Hardware-Releases zu nutzen.

  • Sicherheitsaspekte: Integriert in die robuste Sicherheit für IoT- und Edge-Geräte von Google.

  • Hardware-Beschleunigung: Speziell entwickelt, um die Vorteile von Google Coral-Geräten voll auszuschöpfen.

TF.js

TensorFlow.js (TF.js) ist eine Bibliothek, die Fähigkeiten des maschinellen Lernens direkt in den Browser bringt und damit Webentwicklern und -nutzern gleichermaßen neue Möglichkeiten eröffnet. Sie ermöglicht die Integration von maschinellen Lernmodellen in Webanwendungen, ohne dass eine Back-End-Infrastruktur erforderlich ist.

  • Leistungs-Benchmarks: Ermöglicht maschinelles Lernen direkt im Browser mit angemessener Leistung, je nach Client-Gerät.

  • Kompatibilität und Integration: Hohe Kompatibilität mit Webtechnologien, die eine einfache Integration in Webanwendungen ermöglicht.

  • Community-Unterstützung und Ökosystem: Unterstützung durch eine Gemeinschaft von Web- und Node.js-Entwicklern mit einer Vielzahl von Tools für die Bereitstellung von ML-Modellen in Browsern.

  • Fallstudien: Ideal für interaktive Webanwendungen, die von clientseitigem maschinellem Lernen profitieren, ohne dass eine serverseitige Verarbeitung erforderlich ist.

  • Wartung und Updates: Wird vom TensorFlow Team mit Beiträgen aus der Open-Source-Gemeinschaft gepflegt.

  • Sicherheitserwägungen: Wird im sicheren Kontext des Browsers ausgeführt, wobei das Sicherheitsmodell der Webplattform verwendet wird.

  • Hardware-Beschleunigung: Die Leistung kann mit webbasierten APIs verbessert werden, die auf Hardware-Beschleunigung wie WebGL zugreifen.

PaddlePaddle

PaddlePaddle ist ein Open-Source-Framework für Deep Learning, das von Baidu entwickelt wurde. Es ist so konzipiert, dass es sowohl für Forscher effizient als auch für Entwickler einfach zu verwenden ist. Es ist besonders in China beliebt und bietet spezielle Unterstützung für die Verarbeitung chinesischer Sprache.

  • Leistungs-Benchmarks: Bietet wettbewerbsfähige Leistung mit Schwerpunkt auf Benutzerfreundlichkeit und Skalierbarkeit.

  • Kompatibilität und Integration: Gut integriert in das Ökosystem von Baidu und unterstützt eine Vielzahl von Anwendungen.

  • Unterstützung der Gemeinschaft und Ökosystem: Die Gemeinschaft ist zwar weltweit kleiner, aber sie wächst schnell, vor allem in China.

  • Fallstudien: Wird häufig auf chinesischen Märkten und von Entwicklern verwendet, die nach Alternativen zu anderen großen Frameworks suchen.

  • Wartung und Updates: Regelmäßige Aktualisierung mit Schwerpunkt auf chinesischsprachigen KI-Anwendungen und -Diensten.

  • Sicherheitserwägungen: Der Schwerpunkt liegt auf dem Datenschutz und der Sicherheit und entspricht den chinesischen Data-Governance-Standards.

  • Hardware-Beschleunigung: Unterstützt verschiedene Hardware-Beschleunigungen, einschließlich Baidus eigener Kunlun-Chips.

NCNN

NCNN ist ein hochleistungsfähiges Framework für neuronale Netze, das für die mobile Plattform optimiert wurde. Es zeichnet sich durch sein geringes Gewicht und seine Effizienz aus, wodurch es sich besonders gut für mobile und eingebettete Geräte eignet, bei denen die Ressourcen begrenzt sind.

  • Leistungsbenchmarks: Hochgradig optimiert für mobile Plattformen, bietet effiziente Inferenz auf ARM-basierten Geräten.

  • Kompatibilität und Integration: Geeignet für Anwendungen auf Mobiltelefonen und eingebetteten Systemen mit ARM-Architektur.

  • Community-Unterstützung und Ökosystem: Unterstützt von einer aktiven Nischengemeinschaft, die sich auf mobile und eingebettete ML-Anwendungen konzentriert.

  • Fallstudien: Bevorzugt für mobile Anwendungen, bei denen Effizienz und Geschwindigkeit auf Android und anderen ARM-basierten Systemen entscheidend sind.

  • Wartung und Updates: Kontinuierlich verbessert, um die hohe Leistung auf einer Reihe von ARM-Geräten zu erhalten.

  • Sicherheitsaspekte: Der Schwerpunkt liegt auf der lokalen Ausführung auf dem Gerät, wobei die inhärente Sicherheit der geräteinternen Verarbeitung genutzt wird.

  • Hardware-Beschleunigung: Maßgeschneidert für ARM-CPUs und GPUs, mit spezifischen Optimierungen für diese Architekturen.

MNN

MNN ist ein hocheffizientes und leichtgewichtiges Deep-Learning-Framework. Es unterstützt die Inferenz und das Training von Deep-Learning-Modellen und bietet eine branchenführende Leistung für Inferenz und Training auf dem Gerät. Darüber hinaus wird MNN auch auf eingebetteten Geräten, wie z. B. dem IoT, eingesetzt.

Vergleichende Analyse der YOLO11 Einsatzmöglichkeiten

Die folgende Tabelle gibt einen Überblick über die verschiedenen Bereitstellungsoptionen, die für die Modelle von YOLO11 zur Verfügung stehen, und hilft Ihnen bei der Beurteilung, welche Option für Ihre Projektanforderungen am besten geeignet ist, und zwar auf der Grundlage mehrerer wichtiger Kriterien. Einen detaillierten Überblick über die Formate der einzelnen Bereitstellungsoptionen finden Sie auf der Dokumentationsseite zu den Exportformaten unter Ultralytics .

Option Einsatz Leistungsmaßstäbe Kompatibilität und Integration Gemeinschaftliche Unterstützung und Ökosystem Fallstudien Wartung und Aktualisierung Überlegungen zur Sicherheit Hardware-Beschleunigung
PyTorch Gute Flexibilität; kann zu Lasten der Rohleistung gehen Ausgezeichnet mit Python Bibliotheken Umfangreiche Ressourcen und Gemeinschaft Forschung und Prototypen Regelmäßige, aktive Entwicklung Abhängig von der Einsatzumgebung CUDA Unterstützung für GPU Beschleunigung
TorchScript Besser für die Produktion als PyTorch Reibungsloser Übergang von PyTorch zu C++ Spezialisiert, aber enger gefasst als PyTorch Industrie, in der Python ein Engpass ist Konsistente Aktualisierungen mit PyTorch Verbesserte Sicherheit ohne vollständige Python Die Unterstützung von CUDA erbt von PyTorch
ONNX Variabel je nach Laufzeit Hoch über verschiedene Rahmenwerke hinweg Breites Ökosystem, unterstützt von vielen Organisationen Flexibilität über ML-Frameworks hinweg Regelmäßige Aktualisierungen für neue Vorhaben Gewährleistung sicherer Konvertierungs- und Bereitstellungspraktiken Verschiedene Hardware-Optimierungen
OpenVINO Optimiert für Intel Hardware Am besten im Intel Ökosystem Solide Kenntnisse im Bereich Computer Vision IoT und Edge mit Intel Hardware Regelmäßige Updates für Intel Hardware Robuste Funktionen für sensible Anwendungen Maßgeschneidert für Intel Hardware
TensorRT Top-Tier auf NVIDIA GPUs Am besten für NVIDIA Hardware Starkes Netzwerk durch NVIDIA Video- und Bildinferenz in Echtzeit Häufige Updates für neue GPUs Schwerpunktthema Sicherheit Entwickelt für NVIDIA GPUs
CoreML Optimiert für Apple-Hardware auf dem Gerät Exklusiv für das Apple-Ökosystem Starke Unterstützung durch Apple und Entwickler Geräteinterne ML-Funktion auf Apple-Produkten Regelmäßige Apple-Updates Fokus auf Datenschutz und Sicherheit Apple Neural Engine und GPU
TF SavedModel Skalierbar in Serverumgebungen Breite Kompatibilität im TensorFlow Ökosystem Große Unterstützung aufgrund der Popularität von TensorFlow Modelle im Maßstab servieren Regelmäßige Aktualisierungen durch Google und die Gemeinschaft Robuste Funktionen für Unternehmen Verschiedene Hardware-Beschleunigungen
TF GraphDef Stabil für statische Berechnungsgraphen Integriert sich gut in die Infrastruktur von TensorFlow Ressourcen für die Optimierung von statischen Graphen Szenarien, die statische Graphen erfordern Aktualisierungen zusammen mit TensorFlow core Etablierte Sicherheitspraktiken TensorFlow TensorFlow Beschleunigungsoptionen
TF Lite Geschwindigkeit und Effizienz auf mobilen/eingebetteten Geräten Breite Palette an Geräteunterstützung Robuste Gemeinschaft, Google unterstützt Mobile Anwendungen mit minimalem Platzbedarf Neueste Funktionen für Mobiltelefone Sichere Umgebung auf den Geräten der Endnutzer GPU und DSP u.a.
TF Kante TPU Optimiert für Google's Edge TPU Hardware Exklusiv für Edge TPU Geräte Wachsen mit Google und Ressourcen Dritter IoT-Geräte, die Echtzeitverarbeitung erfordern Verbesserungen für neue Edge-Hardware TPU Googlerobuste IoT-Sicherheit Maßgeschneidert für Google Coral
TF.js Angemessene In-Browser-Leistung Hoch mit Webtechnologien Unterstützung für Web- und Node.js-Entwickler Interaktive Webanwendungen TensorFlow Beiträge des Teams und der Gemeinschaft Sicherheitsmodell für Webplattformen Verbessert mit WebGL und anderen APIs
PaddlePaddle Wettbewerbsfähig, einfach zu bedienen und skalierbar Baidu-Ökosystem, breite Anwendungsunterstützung Rasches Wachstum, insbesondere in China Chinesischer Markt und Sprachverarbeitung Schwerpunkt auf chinesischen KI-Anwendungen Schwerpunkt auf Datenschutz und Sicherheit Einschließlich der Kunlun-Chips von Baidu
MNN Hohe Leistung für mobile Geräte. Mobile und eingebettete ARM-Systeme und X86-64 CPU Mobile/eingebettete ML-Gemeinschaft Effizienz mobiler Systeme Leistungsstarke Wartung auf mobilen Geräten Vorteile der Sicherheit auf dem Gerät Optimierungen für ARM-CPUs und GPUs
NCNN Optimiert für mobile ARM-basierte Geräte Mobile und eingebettete ARM-Systeme Nische, aber aktive mobile/eingebettete ML-Gemeinschaft Android und Effizienz der ARM-Systeme Leistungsstarke Wartung auf ARM Vorteile der Sicherheit auf dem Gerät Optimierungen für ARM-CPUs und GPUs

Diese vergleichende Analyse gibt Ihnen einen umfassenden Überblick. Für den Einsatz müssen Sie unbedingt die spezifischen Anforderungen und Einschränkungen Ihres Projekts berücksichtigen und die ausführliche Dokumentation und die für jede Option verfügbaren Ressourcen konsultieren.

Gemeinschaft und Unterstützung

Wenn Sie mit YOLO11 beginnen, kann eine hilfreiche Gemeinschaft und Unterstützung einen großen Einfluss haben. Hier erfahren Sie, wie Sie mit anderen, die Ihre Interessen teilen, in Kontakt treten und die nötige Unterstützung erhalten können.

Engagieren Sie sich in der breiteren Gemeinschaft

  • GitHub-Diskussionen: Das Repository YOLO11 auf GitHub verfügt über einen Abschnitt "Discussions", in dem Sie Fragen stellen, Probleme melden und Verbesserungen vorschlagen können.

  • Ultralytics Discord-Server: Ultralytics hat einen Discord-Server, auf dem Sie mit anderen Benutzern und Entwicklern interagieren können.

Offizielle Dokumentation und Ressourcen

  • Ultralytics YOLO11 Dokumentationen: Die offizielle Dokumentation bietet einen umfassenden Überblick über YOLO11 sowie Anleitungen zur Installation, Verwendung und Fehlerbehebung.

Diese Ressourcen helfen Ihnen, Herausforderungen zu meistern und sich über die neuesten Trends und bewährten Verfahren in der YOLO11 Community auf dem Laufenden zu halten.

Schlussfolgerung

In diesem Leitfaden haben wir uns mit den verschiedenen Bereitstellungsoptionen für YOLO11 beschäftigt. Wir haben auch die wichtigen Faktoren erörtert, die Sie bei Ihrer Wahl berücksichtigen sollten. Mit diesen Optionen können Sie Ihr Modell an verschiedene Umgebungen und Leistungsanforderungen anpassen, sodass es für reale Anwendungen geeignet ist.

Vergessen Sie nicht, dass die Community von YOLO11 und Ultralytics eine wertvolle Quelle der Hilfe ist. Tauschen Sie sich mit anderen Entwicklern und Experten aus, um einzigartige Tipps und Lösungen zu erhalten, die Sie vielleicht nicht in der regulären Dokumentation finden. Suchen Sie weiter nach Wissen, erforschen Sie neue Ideen und teilen Sie Ihre Erfahrungen.

Viel Spaß beim Einsatz!

FAQ

Welche Einsatzmöglichkeiten gibt es für YOLO11 auf verschiedenen Hardware-Plattformen?

Ultralytics YOLO11 unterstützt verschiedene Bereitstellungsformate, die jeweils für bestimmte Umgebungen und Hardwareplattformen konzipiert sind. Zu den wichtigsten Formaten gehören:

  • PyTorch für Forschung und Prototyping, mit hervorragender Python Integration.
  • TorchScript für Produktionsumgebungen, in denen Python nicht verfügbar ist.
  • ONNX für plattformübergreifende Kompatibilität und Hardwarebeschleunigung.
  • OpenVINO für optimierte Leistung auf Intel Hardware.
  • TensorRT für Hochgeschwindigkeitsinferenzen auf NVIDIA GPUs.

Jedes Format hat seine eigenen Vorteile. Eine detaillierte Beschreibung finden Sie in unserer Dokumentation zum Exportprozess.

Wie kann ich die Inferenzgeschwindigkeit meines YOLO11 Modells auf einer Intel CPU verbessern?

Um die Inferenzgeschwindigkeit auf Intel CPUs zu erhöhen, können Sie Ihr YOLO11 Modell mit dem OpenVINO Toolkit von Intel bereitstellen. OpenVINO bietet erhebliche Leistungssteigerungen durch die Optimierung von Modellen zur effizienten Nutzung der Intel Hardware.

  1. Konvertieren Sie Ihr Modell YOLO11 in das Format OpenVINO , indem Sie die model.export() Funktion.
  2. Folgen Sie der detaillierten Einrichtungsanleitung in der DokumentationIntel OpenVINO Export.

Weitere Informationen finden Sie in unserem Blogbeitrag.

Kann ich YOLO11 Modelle auf mobilen Geräten einsetzen?

Ja, die Modelle von YOLO11 können auf mobilen Geräten mit TensorFlow Lite (TF Lite) für die Plattformen Android und iOS eingesetzt werden. TF Lite wurde für mobile und eingebettete Geräte entwickelt und bietet effiziente Inferenz auf dem Gerät.

Beispiel

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Weitere Einzelheiten zur Bereitstellung von Modellen für mobile Endgeräte finden Sie in unserem TF Lite Integrationsleitfaden.

Welche Faktoren sollte ich bei der Auswahl eines Bereitstellungsformats für mein YOLO11 Modell berücksichtigen?

Bei der Wahl eines Bereitstellungsformats für YOLO11 sollten Sie die folgenden Faktoren berücksichtigen:

  • Leistung: Einige Formate wie TensorRT bieten außergewöhnliche Geschwindigkeiten auf NVIDIA GPUs, während OpenVINO für Intel Hardware optimiert ist.
  • Kompatibilität: ONNX bietet eine breite Kompatibilität über verschiedene Plattformen hinweg.
  • Leichte Integration: Formate wie CoreML oder TF Lite sind auf spezifische Ökosysteme wie iOS bzw. Android zugeschnitten.
  • Unterstützung der Gemeinschaft: Formate wie PyTorch und TensorFlow verfügen über umfangreiche Ressourcen und Unterstützung durch die Gemeinschaft.

Eine vergleichende Analyse finden Sie in unserer Dokumentation über Exportformate.

Wie kann ich YOLO11 Modelle in einer Webanwendung einsetzen?

Für den Einsatz von YOLO11 -Modellen in einer Webanwendung können Sie TensorFlow.js (TF.js) verwenden, mit dem Sie Modelle für maschinelles Lernen direkt im Browser ausführen können. Dieser Ansatz macht eine Backend-Infrastruktur überflüssig und bietet Leistung in Echtzeit.

  1. Exportieren Sie das Modell YOLO11 in das Format TF.js.
  2. Integrieren Sie das exportierte Modell in Ihre Webanwendung.

Eine schrittweise Anleitung finden Sie in unserem Leitfaden zur TensorFlow.js-Integration.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 1 Monat

Kommentare