Wie man YOLO11-Modelle in das PaddlePaddle-Format exportiert
Die Überbrückung der Kluft zwischen der Entwicklung und dem Einsatz von Computer Vision-Modellen in realen Szenarien mit unterschiedlichen Bedingungen kann schwierig sein. PaddlePaddle vereinfacht diesen Prozess durch seinen Fokus auf Flexibilität, Leistung und seine Fähigkeit zur parallelen Verarbeitung in verteilten Umgebungen. Das bedeutet, dass Sie Ihre YOLO11-Computer-Vision-Modelle auf einer Vielzahl von Geräten und Plattformen einsetzen können, von Smartphones bis hin zu Cloud-basierten Servern.
Ansehen: So exportieren Sie Ultralytics YOLO11-Modelle in das PaddlePaddle-Format | Hauptmerkmale des PaddlePaddle-Formats
Die Möglichkeit, in das PaddlePaddle-Modellformat zu exportieren, ermöglicht es Ihnen, Ihre Ultralytics YOLO11-Modelle für die Verwendung innerhalb des PaddlePaddle-Frameworks zu optimieren. PaddlePaddle ist bekannt für die Erleichterung industrieller Einsätze und eine gute Wahl für die Bereitstellung von Computer-Vision-Anwendungen in realen Umgebungen in verschiedenen Bereichen.
Warum sollten Sie nach PaddlePaddle exportieren?
Entwickelt von Baidu, ist PaddlePaddle (PArallel Distributed Deep LEarning) Chinas erste Open-Source Deep-Learning-Plattform. Im Gegensatz zu einigen Frameworks, die hauptsächlich für die Forschung entwickelt wurden, priorisiert PaddlePaddle die Benutzerfreundlichkeit und die reibungslose Integration in verschiedenen Branchen.
Es bietet Tools und Ressourcen, die denen beliebter Frameworks wie TensorFlow und PyTorch ähneln, wodurch es für Entwickler aller Erfahrungsstufen zugänglich ist. Von der Landwirtschaft und Fabriken bis hin zu Dienstleistungsunternehmen hilft die große Entwickler-Community von PaddlePaddle mit über 4,77 Millionen Mitgliedern bei der Erstellung und dem Einsatz von KI-Anwendungen.
Durch den Export Ihrer Ultralytics YOLO11-Modelle in das PaddlePaddle-Format können Sie die Stärken von PaddlePaddle bei der Leistungsoptimierung nutzen. PaddlePaddle priorisiert eine effiziente Modellausführung und einen reduzierten Speicherverbrauch. Infolgedessen können Ihre YOLO11-Modelle potenziell eine noch bessere Leistung erzielen und in praktischen Szenarien erstklassige Ergebnisse liefern.
Hauptmerkmale von PaddlePaddle-Modellen
PaddlePaddle-Modelle bieten eine Reihe von Hauptmerkmalen, die zu ihrer Flexibilität, Leistung und Skalierbarkeit in verschiedenen Einsatzszenarien beitragen:
-
Dynamisch-zu-Statisch-Graph: PaddlePaddle unterstützt die Dynamisch-zu-Statisch-Kompilierung, bei der Modelle in einen statischen Berechnungsgraphen übersetzt werden können. Dies ermöglicht Optimierungen, die den Laufzeit-Overhead reduzieren und die Inferenzleistung steigern.
-
Operator Fusion: PaddlePaddle verwendet, wie TensorRT, Operator Fusion, um die Berechnung zu optimieren und den Overhead zu reduzieren. Das Framework minimiert Speicherübertragungen und Rechenschritte, indem es kompatible Operationen zusammenführt, was zu einer schnelleren Inferenz führt.
-
Quantisierung: PaddlePaddle unterstützt Quantisierungstechniken, einschließlich Post-Training-Quantisierung und quantisierungsbewusstem Training. Diese Techniken ermöglichen die Verwendung von Datenrepräsentationen mit geringerer Präzision, wodurch die Leistung effektiv gesteigert und die Modellgröße reduziert wird.
Bereitstellungsoptionen in PaddlePaddle
Bevor wir uns mit dem Code für den Export von YOLO11-Modellen nach PaddlePaddle befassen, werfen wir einen Blick auf die verschiedenen Einsatzszenarien, in denen sich PaddlePaddle-Modelle auszeichnen.
PaddlePaddle bietet eine Reihe von Optionen, die jeweils ein unterschiedliches Gleichgewicht zwischen Benutzerfreundlichkeit, Flexibilität und Leistung bieten:
-
Paddle Serving: Dieses Framework vereinfacht die Bereitstellung von PaddlePaddle-Modellen als hochleistungsfähige RESTful APIs. Paddle Serving ist ideal für Produktionsumgebungen und bietet Funktionen wie Modellversionierung, Online-A/B-Tests und Skalierbarkeit für die Verarbeitung großer Anfragevolumen.
-
Paddle Inference API: Die Paddle Inference API bietet Ihnen Low-Level-Kontrolle über die Modellausführung. Diese Option eignet sich gut für Szenarien, in denen Sie das Modell eng in eine benutzerdefinierte Anwendung integrieren oder die Leistung für bestimmte Hardware optimieren müssen.
-
Paddle Lite: Paddle Lite wurde für den Einsatz auf mobilen und eingebetteten Geräten entwickelt, auf denen die Ressourcen begrenzt sind. Es optimiert Modelle für kleinere Größen und schnellere Inferenz auf ARM-CPUs, GPUs und anderer spezialisierter Hardware.
-
Paddle.js: Paddle.js ermöglicht es Ihnen, PaddlePaddle-Modelle direkt in Webbrowsern bereitzustellen. Paddle.js kann entweder ein vortrainiertes Modell laden oder ein Modell von paddle-hub mit den von Paddle.js bereitgestellten Modelltransformationswerkzeugen transformieren. Es kann in Browsern ausgeführt werden, die WebGL/WebGPU/WebAssembly unterstützen.
Export nach PaddlePaddle: Konvertierung Ihres YOLO11-Modells
Die Konvertierung von YOLO11-Modellen in das PaddlePaddle-Format kann die Ausführungsflexibilität verbessern und die Leistung für verschiedene Einsatzszenarien optimieren.
Installation
Um das erforderliche Paket zu installieren, führen Sie Folgendes aus:
Installation
# Install the required package for YOLO11
pip install ultralytics
Detaillierte Anweisungen und Best Practices zum Installationsprozess finden Sie in unserem Ultralytics Installationshandbuch. Wenn Sie bei der Installation der erforderlichen Pakete für YOLO11 auf Schwierigkeiten stoßen, konsultieren Sie unser Handbuch zu häufigen Problemen für Lösungen und Tipps.
Nutzung
Alle Ultralytics YOLO11 Modelle unterstützen den Export, und Sie können die vollständige Liste der Exportformate und -optionen durchsuchen, um die beste Lösung für Ihre Deployment-Anforderungen zu finden.
Nutzung
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Export the model to PaddlePaddle format
model.export(format="paddle") # creates '/yolo11n_paddle_model'
# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")
# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'
# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'
Export-Argumente
Argument | Typ | Standard | Beschreibung |
---|---|---|---|
format |
str |
'paddle' |
Zielformat für das exportierte Modell, das die Kompatibilität mit verschiedenen Deployment-Umgebungen definiert. |
imgsz |
int oder tuple |
640 |
Gewünschte Bildgröße für die Modelleingabe. Kann eine ganze Zahl für quadratische Bilder oder ein Tupel (height, width) für bestimmte Abmessungen sein. |
batch |
int |
1 |
Gibt die Batch-Inferenzgröße des Exportmodells oder die maximale Anzahl von Bildern an, die das exportierte Modell gleichzeitig verarbeitet predict Modus. |
device |
str |
None |
Gibt das Gerät für den Export an: CPU (device=cpu ), MPS für Apple Silicon (device=mps ), oder Auto-Modus mit angegebener Auslastungsfraktion ( |
Weitere Informationen zum Exportprozess finden Sie auf der Ultralytics-Dokumentationsseite zum Exportieren.
Bereitstellung exportierter YOLO11 PaddlePaddle-Modelle
Nachdem Sie Ihre Ultralytics YOLO11-Modelle erfolgreich in das PaddlePaddle-Format exportiert haben, können Sie sie jetzt bereitstellen. Der primäre und empfohlene erste Schritt zum Ausführen eines PaddlePaddle-Modells ist die Verwendung der YOLO("yolo11n_paddle_model/")-Methode, wie im vorherigen Code-Snippet zur Verwendung beschrieben.
Für detaillierte Anweisungen zur Bereitstellung Ihrer PaddlePaddle-Modelle in verschiedenen anderen Umgebungen, werfen Sie einen Blick auf die folgenden Ressourcen:
-
Paddle Serving: Erfahren Sie, wie Sie Ihre PaddlePaddle-Modelle als performante Dienste mit Paddle Serving bereitstellen.
-
Paddle Lite: Entdecken Sie, wie Sie Modelle auf mobilen und eingebetteten Geräten mit Paddle Lite optimieren und bereitstellen können.
-
Paddle.js: Entdecken Sie, wie Sie PaddlePaddle-Modelle in Webbrowsern für clientseitige KI mit Paddle.js ausführen können.
Zusammenfassung
In dieser Anleitung haben wir den Prozess des Exports von Ultralytics YOLO11-Modellen in das PaddlePaddle-Format untersucht. Indem Sie diese Schritte befolgen, können Sie die Stärken von PaddlePaddle in verschiedenen Einsatzszenarien nutzen und Ihre Modelle für unterschiedliche Hardware- und Softwareumgebungen optimieren.
Weitere Informationen zur Verwendung finden Sie in der offiziellen PaddlePaddle-Dokumentation.
Möchten Sie weitere Möglichkeiten zur Integration Ihrer Ultralytics YOLO11-Modelle entdecken? Unsere Seite mit Integrationsanleitungen untersucht verschiedene Optionen und bietet Ihnen wertvolle Ressourcen und Einblicke.
FAQ
Wie exportiere ich Ultralytics YOLO11-Modelle in das PaddlePaddle-Format?
Das Exportieren von Ultralytics YOLO11-Modellen in das PaddlePaddle-Format ist unkompliziert. Sie können die export
Methode der YOLO-Klasse verwenden, um diesen Export durchzuführen. Hier ist ein Beispiel mit python:
Nutzung
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Export the model to PaddlePaddle format
model.export(format="paddle") # creates '/yolo11n_paddle_model'
# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")
# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'
# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'
Für eine detailliertere Einrichtung und Fehlerbehebung lesen Sie bitte die Ultralytics Installationsanleitung und die Anleitung zu häufigen Problemen.
Welche Vorteile bietet die Verwendung von PaddlePaddle für das Model Deployment?
PaddlePaddle bietet mehrere entscheidende Vorteile für das Model Deployment:
- Performance-Optimierung: PaddlePaddle zeichnet sich durch eine effiziente Modellausführung und einen reduzierten Speicherverbrauch aus.
- Dynamic-to-Static Graph Compilation: Es unterstützt die Dynamic-to-Static-Kompilierung, die Laufzeitoptimierungen ermöglicht.
- Operator Fusion: Durch das Zusammenführen kompatibler Operationen reduziert es den Rechenaufwand.
- Quantisierungstechniken: Unterstützt sowohl Post-Training als auch Quantization-Aware Training und ermöglicht Datenrepräsentationen mit niedrigerer Präzision für eine verbesserte Performance.
Sie können verbesserte Ergebnisse erzielen, indem Sie Ihre Ultralytics YOLO11-Modelle nach PaddlePaddle exportieren, um Flexibilität und hohe Leistung in verschiedenen Anwendungen und auf verschiedenen Hardwareplattformen zu gewährleisten. Entdecken Sie die wichtigsten Funktionen und Möglichkeiten von PaddlePaddle in der offiziellen PaddlePaddle-Dokumentation.
Warum sollte ich PaddlePaddle für die Bereitstellung meiner YOLO11-Modelle wählen?
PaddlePaddle, entwickelt von Baidu, ist für industrielle und kommerzielle KI-Anwendungen optimiert. Seine große Entwickler-Community und sein robustes Framework bieten umfangreiche Tools, ähnlich wie TensorFlow und PyTorch. Durch den Export Ihrer YOLO11-Modelle nach PaddlePaddle profitieren Sie von:
- Verbesserte Performance: Optimale Ausführungsgeschwindigkeit und reduzierter Speicherbedarf.
- Flexibilität: Breite Kompatibilität mit verschiedenen Geräten, von Smartphones bis hin zu Cloud-Servern.
- Skalierbarkeit: Effiziente parallele Verarbeitungsmöglichkeiten für verteilte Umgebungen.
Diese Funktionen machen PaddlePaddle zu einer überzeugenden Wahl für den Einsatz von YOLO11-Modellen in Produktionsumgebungen.
Wie verbessert PaddlePaddle die Modell-Performance im Vergleich zu anderen Frameworks?
PaddlePaddle verwendet verschiedene fortschrittliche Techniken zur Optimierung der Modell-Performance:
- Dynamic-to-Static Graph: Konvertiert Modelle in einen statischen Berechnungsgraphen für Laufzeitoptimierungen.
- Operator Fusion: Kombiniert kompatible Operationen, um den Speicherbedarf zu minimieren und die Inferenzgeschwindigkeit zu erhöhen.
- Quantisierung: Reduziert die Modellgröße und erhöht die Effizienz durch die Verwendung von Daten mit niedrigerer Präzision, während die Genauigkeit erhalten bleibt.
Diese Techniken priorisieren eine effiziente Modellausführung und machen PaddlePaddle zu einer ausgezeichneten Option für den Einsatz von hochleistungsfähigen YOLO11-Modellen. Weitere Informationen zur Optimierung finden Sie in der offiziellen PaddlePaddle-Dokumentation.
Welche Bereitstellungsoptionen bietet PaddlePaddle für YOLO11-Modelle?
PaddlePaddle bietet flexible Deployment-Optionen:
- Paddle Serving: Stellt Modelle als RESTful APIs bereit, ideal für die Produktion mit Funktionen wie Modellversionierung und Online-A/B-Tests.
- Paddle Inference API: Bietet Low-Level-Kontrolle über die Modellausführung für benutzerdefinierte Anwendungen.
- Paddle Lite: Optimiert Modelle für die begrenzten Ressourcen mobiler und eingebetteter Geräte.
- Paddle.js: Ermöglicht die Bereitstellung von Modellen direkt in Webbrowsern.
Diese Optionen decken ein breites Spektrum an Bereitstellungsszenarien ab, von On-Device-Inferenz bis hin zu skalierbaren Cloud-Diensten. Entdecken Sie weitere Bereitstellungsstrategien auf der Ultralytics Seite zu Model Deployment Optionen.