Zum Inhalt springen

Exportieren in das Format PaddlePaddle aus YOLO11 Modellen

Es kann schwierig sein, die Kluft zwischen der Entwicklung und dem Einsatz von Computer-Vision-Modellen in realen Szenarien mit unterschiedlichen Bedingungen zu überbrücken. PaddlePaddle erleichtert diesen Prozess durch seinen Fokus auf Flexibilität, Leistung und seine Fähigkeit zur parallelen Verarbeitung in verteilten Umgebungen. Das bedeutet, dass Sie Ihre YOLO11 Computer-Vision-Modelle auf einer Vielzahl von Geräten und Plattformen einsetzen können, von Smartphones bis hin zu Cloud-basierten Servern.



Beobachten: Wie exportiert man Ultralytics YOLO11 Modelle in das PaddlePaddle Format | Hauptmerkmale des PaddlePaddle Formats

Die Möglichkeit, Modelle in das Format PaddlePaddle zu exportieren, ermöglicht es Ihnen, Ihre Ultralytics YOLO11 Modelle für die Verwendung innerhalb des PaddlePaddle Frameworks zu optimieren. PaddlePaddle ist dafür bekannt, dass es den industriellen Einsatz erleichtert und ist eine gute Wahl für den Einsatz von Computer Vision Anwendungen in realen Umgebungen in verschiedenen Bereichen.

Warum sollten Sie auf PaddlePaddle exportieren?

PaddlePaddle Logo

Entwickelt von Baidu, PaddlePaddle(PArallel Distributed Deep LEarning) ist Chinas erste Open-Source-Plattform für Deep Learning. Im Gegensatz zu einigen Frameworks, die hauptsächlich für die Forschung entwickelt wurden, legt PaddlePaddle den Schwerpunkt auf Benutzerfreundlichkeit und eine reibungslose Integration in verschiedene Branchen.

Es bietet Werkzeuge und Ressourcen, die den gängigen Frameworks wie TensorFlow und PyTorchund ist damit für Entwickler aller Erfahrungsstufen zugänglich. Von der Landwirtschaft über Fabriken bis hin zu Dienstleistungsunternehmen - die große Entwickler-Community von PaddlePaddle mit über 4,77 Millionen Mitgliedern hilft bei der Erstellung und Bereitstellung von KI-Anwendungen.

Wenn Sie Ihre Ultralytics YOLO11 Modelle in das PaddlePaddle Format exportieren, können Sie die Stärken von PaddlePaddle bei der Leistungsoptimierung nutzen. PaddlePaddle legt den Schwerpunkt auf eine effiziente Modellausführung und eine reduzierte Speichernutzung. Dadurch können Ihre YOLO11 Modelle potenziell eine noch bessere Leistung erzielen und in praktischen Szenarien erstklassige Ergebnisse liefern.

Hauptmerkmale der Modelle PaddlePaddle

PaddlePaddle Modelle bieten eine Reihe von Schlüsselfunktionen, die zu ihrer Flexibilität, Leistung und Skalierbarkeit in verschiedenen Einsatzszenarien beitragen:

  • Dynamisch-statischer Graph: PaddlePaddle unterstützt die dynamisch-statische Kompilierung, bei der Modelle in einen statischen Berechnungsgraphen übersetzt werden können. Dies ermöglicht Optimierungen, die den Laufzeit-Overhead reduzieren und die Inferenzleistung erhöhen.

  • Operator Fusion: PaddlePaddle Wie TensorRT verwendet Operator Fusion, um Berechnungen zu rationalisieren und den Overhead zu reduzieren. Durch die Zusammenführung kompatibler Operationen werden Speicherübertragungen und Berechnungsschritte minimiert, was zu schnelleren Schlussfolgerungen führt.

  • Quantisierung: PaddlePaddle unterstützt Quantisierungstechniken, einschließlich Quantisierung nach dem Training und quantisierungsorientiertes Training. Diese Techniken ermöglichen die Verwendung von Datenrepräsentationen mit geringerer Genauigkeit, wodurch die Leistung effektiv gesteigert und die Modellgröße reduziert wird.

Bereitstellungsoptionen in PaddlePaddle

Bevor wir uns mit dem Code für den Export von YOLO11 -Modellen nach PaddlePaddle beschäftigen, wollen wir einen Blick auf die verschiedenen Einsatzszenarien werfen, in denen sich PaddlePaddle -Modelle auszeichnen.

PaddlePaddle bietet eine Reihe von Optionen, die jeweils ein ausgewogenes Verhältnis von Benutzerfreundlichkeit, Flexibilität und Leistung bieten:

  • Paddle Serving: Dieses Framework vereinfacht die Bereitstellung von PaddlePaddle -Modellen als leistungsstarke RESTful-APIs. Paddle Serving ist ideal für Produktionsumgebungen und bietet Funktionen wie Modellversionierung, Online-A/B-Tests und Skalierbarkeit für die Verarbeitung großer Mengen von Anfragen.

  • Paddle Inference API: Mit der Paddle Inference API können Sie die Ausführung des Modells auf niedriger Ebene steuern. Diese Option eignet sich gut für Szenarien, in denen Sie das Modell eng in eine benutzerdefinierte Anwendung integrieren oder die Leistung für bestimmte Hardware optimieren müssen.

  • Paddle Lite: Paddle Lite ist für den Einsatz auf mobilen und eingebetteten Geräten mit begrenzten Ressourcen konzipiert. Es optimiert Modelle für kleinere Größen und schnellere Inferenzen auf ARM-CPUs, GPUs und anderer Spezialhardware.

  • Paddle.js: Mit Paddle.js können Sie PaddlePaddle Modelle direkt in Webbrowsern einsetzen. Paddle.js kann entweder ein vorab trainiertes Modell laden oder ein Modell von paddle-hub mit den von Paddle.js bereitgestellten Modellumwandlungstools umwandeln. Es kann in Browsern ausgeführt werden, die WebGL/WebGPU/WebAssembly unterstützen.

Exportieren nach PaddlePaddle: Konvertierung Ihres YOLO11 Modells

Die Konvertierung von YOLO11 Modellen in das Format PaddlePaddle kann die Ausführungsflexibilität verbessern und die Leistung für verschiedene Einsatzszenarien optimieren.

Einrichtung

Führen Sie das erforderliche Paket aus, um es zu installieren:

Einrichtung

# Install the required package for YOLO11
pip install ultralytics

Detaillierte Anweisungen und bewährte Verfahren für den Installationsprozess finden Sie in unserem Ultralytics Installationshandbuch. Wenn Sie bei der Installation der erforderlichen Pakete für YOLO11 auf Schwierigkeiten stoßen, finden Sie in unserem Leitfaden für häufige Probleme Lösungen und Tipps.

Verwendung

Bevor wir uns den Anweisungen zur Verwendung zuwenden, ist es wichtig zu wissen, dass alle Modelle vonUltralytics YOLO11 für den Export verfügbar sind.

Verwendung

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle  # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Weitere Einzelheiten zu den unterstützten Exportoptionen finden Sie auf der Dokumentationsseite zu den Bereitstellungsoptionen unter Ultralytics .

Bereitstellung von exportierten YOLO11 PaddlePaddle Modellen

Nachdem Sie Ihre Ultralytics YOLO11 Modelle erfolgreich in das PaddlePaddle Format exportiert haben, können Sie sie nun einsetzen. Der primäre und empfohlene erste Schritt zur Ausführung eines PaddlePaddle Modells ist die Verwendung der YOLO("./model_paddle_model") Methode, wie im vorherigen Codeausschnitt beschrieben.

Ausführliche Anleitungen für den Einsatz Ihrer PaddlePaddle Modelle in verschiedenen anderen Umgebungen finden Sie in den folgenden Ressourcen:

  • Paddeln servieren: Lernen Sie, wie Sie Ihre PaddlePaddle Modelle mit Paddle Serving als performante Dienste bereitstellen können.

  • Paddel Lite: Erfahren Sie, wie Sie mit Paddle Lite Modelle auf mobilen und eingebetteten Geräten optimieren und bereitstellen können.

  • Paddle.js: Entdecken Sie, wie Sie mit Paddle.js PaddlePaddle Modelle in Webbrowsern für client-seitige KI ausführen können.

Zusammenfassung

In diesem Leitfaden haben wir den Export von Ultralytics YOLO11 Modellen in das PaddlePaddle Format untersucht. Wenn Sie diese Schritte befolgen, können Sie die Stärken von PaddlePaddle in verschiedenen Einsatzszenarien nutzen und Ihre Modelle für unterschiedliche Hardware- und Softwareumgebungen optimieren.

Weitere Einzelheiten zur Verwendung finden Sie in der offiziellen DokumentationPaddlePaddle

Möchten Sie weitere Möglichkeiten zur Integration Ihrer Ultralytics YOLO11 Modelle erkunden? Unser Integrationsleitfaden zeigt Ihnen verschiedene Möglichkeiten auf und bietet Ihnen wertvolle Ressourcen und Einblicke.

FAQ

Wie exportiere ich Ultralytics YOLO11 Modelle in das Format PaddlePaddle ?

Das Exportieren von Ultralytics YOLO11 Modellen in das PaddlePaddle Format ist einfach zu bewerkstelligen. Sie können die export Methode der Klasse YOLO , um diesen Export durchzuführen. Hier ist ein Beispiel mit Python:

Verwendung

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle  # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Ausführlichere Informationen zur Einrichtung und Fehlerbehebung finden Sie in der Ultralytics Installationsanleitung und im Leitfaden für häufige Probleme.

Was sind die Vorteile der Verwendung von PaddlePaddle für die Modellbereitstellung?

PaddlePaddle bietet mehrere entscheidende Vorteile für den Einsatz von Modellen:

  • Leistungsoptimierung: PaddlePaddle zeichnet sich durch eine effiziente Modellausführung und eine geringere Speichernutzung aus.
  • Dynamisch-statische Graph-Kompilierung: Es unterstützt die Kompilierung von dynamisch zu statisch und ermöglicht so Laufzeitoptimierungen.
  • Operator Fusion: Durch die Zusammenführung kompatibler Operationen wird der Rechenaufwand reduziert.
  • Quantisierungstechniken: Unterstützt sowohl Post-Training als auch Quantisierungs-Training und ermöglicht so die Darstellung von Daten mit geringerer Genauigkeit zur Verbesserung der Leistung.

Sie können bessere Ergebnisse erzielen, indem Sie Ihre Modelle von Ultralytics YOLO11 nach PaddlePaddle exportieren und so Flexibilität und hohe Leistung für verschiedene Anwendungen und Hardwareplattformen gewährleisten. Erfahren Sie hier mehr über die Funktionen von PaddlePaddle.

Warum sollte ich PaddlePaddle für die Bereitstellung meiner YOLO11 Modelle wählen?

PaddlePaddlewurde von Baidu entwickelt und ist für industrielle und kommerzielle KI-Einsätze optimiert. Die große Entwicklergemeinschaft und das robuste Framework bieten umfangreiche Tools, die denen von TensorFlow und PyTorch ähneln. Indem Sie Ihre YOLO11 Modelle nach PaddlePaddle exportieren, nutzen Sie die Vorteile:

  • Verbesserte Leistung: Optimale Ausführungsgeschwindigkeit und geringerer Speicherbedarf.
  • Flexibilität: Breite Kompatibilität mit verschiedenen Geräten von Smartphones bis zu Cloud-Servern.
  • Skalierbarkeit: Effiziente Parallelverarbeitungsfunktionen für verteilte Umgebungen.

Diese Funktionen machen PaddlePaddle zu einer überzeugenden Wahl für den Einsatz von YOLO11 Modellen in Produktionsumgebungen.

Wie verbessert PaddlePaddle die Modellleistung gegenüber anderen Frameworks?

PaddlePaddle wendet mehrere fortschrittliche Techniken zur Optimierung der Modellleistung an:

  • Dynamisch-statischer Graph: Konvertiert Modelle in einen statischen Berechnungsgraphen für Laufzeitoptimierungen.
  • Operator Fusion: Kombiniert kompatible Operationen, um die Speicherübertragung zu minimieren und die Schlussfolgerungsgeschwindigkeit zu erhöhen.
  • Quantisierung: Verringert die Modellgröße und erhöht die Effizienz durch die Verwendung von Daten mit geringerer Genauigkeit, ohne die Genauigkeit zu beeinträchtigen.

Diese Techniken stellen eine effiziente Modellausführung in den Vordergrund und machen PaddlePaddle zu einer ausgezeichneten Option für den Einsatz von Hochleistungsmodellen YOLO11 . Weitere Informationen zur Optimierung finden Sie in der offiziellen DokumentationPaddlePaddle .

Welche Bereitstellungsoptionen bietet PaddlePaddle für die Modelle YOLO11 ?

PaddlePaddle bietet flexible Einsatzmöglichkeiten:

  • Paddle Serving: Stellt Modelle als RESTful APIs bereit, ideal für die Produktion mit Funktionen wie Modellversionierung und Online-A/B-Tests.
  • Paddle Inference API: Ermöglicht die Steuerung der Modellausführung auf niedriger Ebene für benutzerdefinierte Anwendungen.
  • Paddle Lite: Optimiert Modelle für die begrenzten Ressourcen von mobilen und eingebetteten Geräten.
  • Paddle.js: Ermöglicht die Bereitstellung von Modellen direkt in Webbrowsern.

Diese Optionen decken ein breites Spektrum an Einsatzszenarien ab, von der Inferenz auf dem Gerät bis hin zu skalierbaren Cloud-Diensten. Weitere Bereitstellungsstrategien finden Sie auf der SeiteUltralytics Bereitstellungsoptionen für das Modell.

📅 Erstellt vor 9 Monaten ✏️ Aktualisiert vor 2 Monaten

Kommentare