Zum Inhalt springen

Verstehen Sie, wie man in das Format TF SavedModel exportiert. YOLO11

Die Bereitstellung von Modellen für maschinelles Lernen kann eine Herausforderung sein. Die Verwendung eines effizienten und flexiblen Modellformats kann Ihnen jedoch die Arbeit erleichtern. TF SavedModel ist ein Open-Source-Framework für maschinelles Lernen, das von TensorFlow verwendet wird, um Modelle für maschinelles Lernen auf einheitliche Weise zu laden. Es ist wie ein Koffer für die Modelle von TensorFlow , so dass sie leicht transportiert und auf verschiedenen Geräten und Systemen verwendet werden können.

Das Erlernen des Exports von Modellen nach TF SavedModel Ultralytics YOLO11 Modellen können Sie Modelle problemlos auf verschiedenen Plattformen und in unterschiedlichen Umgebungen einsetzen. In diesem Leitfaden erfahren Sie, wie Sie Ihre Modelle in das Format TF SavedModel konvertieren, um die Ausführung von Schlussfolgerungen mit Ihren Modellen auf verschiedenen Geräten zu vereinfachen.

Warum sollten Sie auf TF SavedModel exportieren?

Das TensorFlow SavedModel Format ist ein Teil des TensorFlow Ökosystems, das von Google entwickelt wurde (siehe unten). Es wurde entwickelt, um TensorFlow Modelle nahtlos zu speichern und zu serialisieren. Es kapselt die vollständigen Details der Modelle, wie die Architektur, Gewichte und sogar Kompilierungsinformationen. Dies macht es einfach, Modelle in verschiedenen Umgebungen zu teilen, einzusetzen und weiter zu trainieren.

TF SavedModel

Der TF SavedModel hat einen entscheidenden Vorteil: seine Kompatibilität. Es funktioniert gut mit TensorFlow Serving, TensorFlow Lite und TensorFlow.js. Diese Kompatibilität erleichtert die gemeinsame Nutzung und Bereitstellung von Modellen auf verschiedenen Plattformen, einschließlich Web- und Mobilanwendungen. Das Format TF SavedModel ist sowohl für die Forschung als auch für die Produktion nützlich. Es bietet eine einheitliche Möglichkeit, Ihre Modelle zu verwalten und sicherzustellen, dass sie für jede Anwendung bereit sind.

Hauptmerkmale von TF SavedModels

Hier sind die wichtigsten Funktionen, die TF SavedModel zu einer hervorragenden Option für KI-Entwickler machen:

  • Portabilität: TF SavedModel bietet ein sprachneutrales, wiederherstellbares, hermetisches Serialisierungsformat. Sie ermöglichen es übergeordneten Systemen und Werkzeugen, TensorFlow Modelle zu erstellen, zu konsumieren und zu transformieren. SavedModels können problemlos über verschiedene Plattformen und Umgebungen hinweg gemeinsam genutzt und eingesetzt werden.

  • Einfacher Einsatz: TF SavedModel bündelt den Berechnungsgraphen, die trainierten Parameter und die erforderlichen Metadaten in einem einzigen Paket. Sie können einfach geladen und für Schlussfolgerungen verwendet werden, ohne dass der ursprüngliche Code, der das Modell erstellt hat, benötigt wird. Dies macht den Einsatz von TensorFlow Modellen in verschiedenen Produktionsumgebungen einfach und effizient.

  • Asset Management: TF SavedModel unterstützt die Einbindung externer Assets wie Vokabularien, Einbettungen oder Nachschlagetabellen. Diese Ressourcen werden zusammen mit der Diagrammdefinition und den Variablen gespeichert, so dass sie beim Laden des Modells verfügbar sind. Diese Funktion vereinfacht die Verwaltung und Verteilung von Modellen, die auf externe Ressourcen angewiesen sind.

Bereitstellungsoptionen mit TF SavedModel

Bevor wir uns mit dem Export von YOLO11 Modellen in das Format TF SavedModel befassen, wollen wir einige typische Einsatzszenarien untersuchen, in denen dieses Format verwendet wird.

TF SavedModel bietet eine Reihe von Optionen für den Einsatz Ihrer Modelle für maschinelles Lernen:

  • TensorFlow Servieren: TensorFlow Serving ist ein flexibles, leistungsstarkes Serving-System, das für Produktionsumgebungen entwickelt wurde. Es unterstützt nativ TF SavedModels, was die Bereitstellung und Bereitstellung Ihrer Modelle auf Cloud-Plattformen, lokalen Servern oder Edge-Geräten erleichtert.

  • Cloud-Plattformen: Große Cloud-Anbieter wie Google Cloud Platform (GCP), Amazon Web Services (AWS) und Microsoft Azure bieten Dienste für die Bereitstellung und Ausführung von TensorFlow Modellen, einschließlich TF SavedModels. Diese Dienste bieten eine skalierbare und verwaltete Infrastruktur, mit der Sie Ihre Modelle problemlos bereitstellen und skalieren können.

  • Mobile und eingebettete Geräte: TensorFlow Lite, eine leichtgewichtige Lösung zur Ausführung von Modellen für maschinelles Lernen auf mobilen, eingebetteten und IoT-Geräten, unterstützt die Konvertierung von TF SavedModels in das TensorFlow Lite-Format. Dadurch können Sie Ihre Modelle auf einer Vielzahl von Geräten einsetzen, von Smartphones und Tablets bis hin zu Mikrocontrollern und Edge-Geräten.

  • TensorFlow Laufzeit: TensorFlow Laufzeit (tfrt) ist eine leistungsstarke Laufzeitumgebung für die Ausführung von TensorFlow Graphen. Es bietet APIs auf niedrigerer Ebene zum Laden und Ausführen von TF SavedModels in C++-Umgebungen. TensorFlow Runtime bietet eine bessere Leistung im Vergleich zur Standard-Laufzeit von TensorFlow . Sie eignet sich für Einsatzszenarien, die eine Inferenz mit geringer Latenz und eine enge Integration in bestehende C++-Codebasen erfordern.

Exportieren von YOLO11 Modellen nach TF SavedModel

Durch den Export von YOLO11 -Modellen in das Format TF SavedModel verbessern Sie deren Anpassungsfähigkeit und die einfache Bereitstellung auf verschiedenen Plattformen.

Einrichtung

Führen Sie das erforderliche Paket aus, um es zu installieren:

Einrichtung

# Install the required package for YOLO11
pip install ultralytics

Detaillierte Anweisungen und bewährte Verfahren für den Installationsprozess finden Sie in unserem Ultralytics Installationshandbuch. Wenn Sie bei der Installation der erforderlichen Pakete für YOLO11 auf Schwierigkeiten stoßen, finden Sie in unserem Leitfaden für häufige Probleme Lösungen und Tipps.

Verwendung

Bevor wir uns den Anweisungen zur Verwendung zuwenden, ist es wichtig zu wissen, dass alle Modelle vonUltralytics YOLO11 für den Export verfügbar sind.

Verwendung

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TF SavedModel format
model.export(format="saved_model")  # creates '/yolo11n_saved_model'

# Load the exported TF SavedModel model
tf_savedmodel_model = YOLO("./yolo11n_saved_model")

# Run inference
results = tf_savedmodel_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TF SavedModel format
yolo export model=yolo11n.pt format=saved_model  # creates '/yolo11n_saved_model'

# Run inference with the exported model
yolo predict model='./yolo11n_saved_model' source='https://ultralytics.com/images/bus.jpg'

Weitere Einzelheiten zu den unterstützten Exportoptionen finden Sie auf der Dokumentationsseite zu den Bereitstellungsoptionen unter Ultralytics .

Bereitstellung von exportierten YOLO11 TF SavedModel Modellen

Nachdem Sie Ihr YOLO11 Modell in das TF SavedModel Format exportiert haben, besteht der nächste Schritt darin, es bereitzustellen. Der primäre und empfohlene erste Schritt zum Ausführen eines TF GraphDef Modells ist die Verwendung der Methode YOLO("./yolo11n_saved_model"), wie zuvor im Verwendungscodeausschnitt gezeigt.

Ausführliche Anleitungen zur Bereitstellung Ihrer TF SavedModel Modelle finden Sie jedoch in den folgenden Ressourcen:

  • TensorFlow Bedienung von: Hier finden Sie die Dokumentation für Entwickler, wie Sie Ihre TF SavedModel Modelle mit TensorFlow Serving bereitstellen können.

  • Führen Sie eine TensorFlow SavedModel in Node.js: Ein TensorFlow Blog-Beitrag über die Ausführung eines TensorFlow SavedModel in Node.js direkt ohne Konvertierung.

  • Einsatz in der Cloud: Ein Blogbeitrag von TensorFlow über die Bereitstellung eines TensorFlow SavedModel Modells auf der Cloud AI Platform.

Zusammenfassung

In diesem Handbuch haben wir untersucht, wie Sie Ultralytics YOLO11 Modelle in das TF SavedModel Format exportieren können. Durch den Export in TF SavedModel erhalten Sie die Flexibilität, Ihre YOLO11 Modelle auf einer Vielzahl von Plattformen zu optimieren, bereitzustellen und zu skalieren.

Weitere Einzelheiten zur Verwendung finden Sie in der offiziellen DokumentationTF SavedModel .

Weitere Informationen zur Integration von Ultralytics YOLO11 mit anderen Plattformen und Frameworks finden Sie auf unserer Seite mit den Integrationsanleitungen. Sie ist vollgepackt mit großartigen Ressourcen, die Ihnen helfen, das Beste aus YOLO11 in Ihren Projekten zu machen.

FAQ

Wie exportiere ich ein Modell von Ultralytics YOLO in das Format TensorFlow SavedModel ?

Das Exportieren eines Ultralytics YOLO Modells in das TensorFlow SavedModel Format ist einfach zu bewerkstelligen. Sie können dazu entweder Python oder CLI verwenden:

Exportieren von YOLO11 nach TF SavedModel

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TF SavedModel format
model.export(format="saved_model")  # creates '/yolo11n_saved_model'

# Load the exported TF SavedModel for inference
tf_savedmodel_model = YOLO("./yolo11n_saved_model")
results = tf_savedmodel_model("https://ultralytics.com/images/bus.jpg")
# Export the YOLO11 model to TF SavedModel format
yolo export model=yolo11n.pt format=saved_model  # creates '/yolo11n_saved_model'

# Run inference with the exported model
yolo predict model='./yolo11n_saved_model' source='https://ultralytics.com/images/bus.jpg'

Weitere Einzelheiten finden Sie in der DokumentationUltralytics Export.

Warum sollte ich das Format TensorFlow SavedModel verwenden?

Das Format TensorFlow SavedModel bietet mehrere Vorteile für die Bereitstellung von Modellen:

  • Übertragbarkeit: Es bietet ein sprachneutrales Format, das die gemeinsame Nutzung und den Einsatz von Modellen in unterschiedlichen Umgebungen erleichtert.
  • Kompatibilität: Nahtlose Integration mit Tools wie TensorFlow Serving, TensorFlow Lite und TensorFlow.js, die für die Bereitstellung von Modellen auf verschiedenen Plattformen, einschließlich Web- und Mobilanwendungen, unerlässlich sind.
  • Vollständige Verkapselung: Verschlüsselt die Modellarchitektur, die Gewichte und die Kompilierungsinformationen und ermöglicht so eine unkomplizierte gemeinsame Nutzung und Fortsetzung des Trainings.

Weitere Vorteile und Bereitstellungsoptionen finden Sie unter Ultralytics YOLO model deployment options.

Was sind die typischen Einsatzszenarien für TF SavedModel ?

TF SavedModel kann in verschiedenen Umgebungen eingesetzt werden, darunter:

  • TensorFlow Serving: Ideal für Produktionsumgebungen, die ein skalierbares und leistungsstarkes Model Serving erfordern.
  • Cloud-Plattformen: Unterstützt die wichtigsten Cloud-Dienste wie Google Cloud Platform (GCP), Amazon Web Services (AWS) und Microsoft Azure für eine skalierbare Modellbereitstellung.
  • Mobile und eingebettete Geräte: Die Verwendung von TensorFlow Lite zur Konvertierung von TF SavedModels ermöglicht den Einsatz auf mobilen Geräten, IoT-Geräten und Mikrocontrollern.
  • TensorFlow Laufzeit: Für C++-Umgebungen, die eine Inferenz mit niedriger Latenz und besserer Leistung benötigen.

Ausführliche Informationen zu den Bereitstellungsoptionen finden Sie in den offiziellen Leitfäden zur Bereitstellung von TensorFlow Modellen.

Wie kann ich die notwendigen Pakete installieren, um YOLO11 Modelle zu exportieren?

Um YOLO11 Modelle zu exportieren, müssen Sie die ultralytics Paket. Führen Sie den folgenden Befehl in Ihrem Terminal aus:

pip install ultralytics

Ausführlichere Installationsanweisungen und bewährte Verfahren finden Sie in unserem Ultralytics Installationsleitfaden. Wenn Sie auf Probleme stoßen, lesen Sie bitte unseren Leitfaden für allgemeine Probleme.

Was sind die wichtigsten Merkmale des Formats TensorFlow SavedModel ?

TF SavedModel Format ist für KI-Entwickler aufgrund der folgenden Merkmale von Vorteil:

  • Portabilität: Ermöglicht mühelos die gemeinsame Nutzung und den Einsatz in verschiedenen Umgebungen.
  • Einfacher Einsatz: Kapselt den Berechnungsgraphen, die trainierten Parameter und die Metadaten in einem einzigen Paket, was das Laden und die Schlussfolgerungen vereinfacht.
  • Vermögensverwaltung: Unterstützt externe Assets wie Vokabulare und stellt sicher, dass diese beim Laden des Modells verfügbar sind.

Weitere Einzelheiten finden Sie in der offiziellen Dokumentation TensorFlow .

📅 Erstellt vor 8 Monaten ✏️ Aktualisiert vor 2 Monaten

Kommentare