コンテンツへスキップ

How to Export to PaddlePaddle Format from YOLO11 Models

Bridging the gap between developing and deploying computer vision models in real-world scenarios with varying conditions can be difficult. PaddlePaddle makes this process easier with its focus on flexibility, performance, and its capability for parallel processing in distributed environments. This means you can use your YOLO11 computer vision models on a wide variety of devices and platforms, from smartphones to cloud-based servers.



見るんだ: How to Export Ultralytics YOLO11 Models to PaddlePaddle Format | Key Features of PaddlePaddle Format

The ability to export to PaddlePaddle model format allows you to optimize your Ultralytics YOLO11 models for use within the PaddlePaddle framework. PaddlePaddle is known for facilitating industrial deployments and is a good choice for deploying computer vision applications in real-world settings across various domains.

なぜPaddlePaddle 。

PaddlePaddle ロゴ

Developed by Baidu, PaddlePaddle (PArallel Distributed Deep LEarning) is China's first open-source deep learning platform. Unlike some frameworks built mainly for research, PaddlePaddle prioritizes ease of use and smooth integration across industries.

It offers tools and resources similar to popular frameworks like TensorFlow and PyTorch, making it accessible for developers of all experience levels. From farming and factories to service businesses, PaddlePaddle's large developer community of over 4.77 million is helping create and deploy AI applications.

By exporting your Ultralytics YOLO11 models to PaddlePaddle format, you can tap into PaddlePaddle's strengths in performance optimization. PaddlePaddle prioritizes efficient model execution and reduced memory usage. As a result, your YOLO11 models can potentially achieve even better performance, delivering top-notch results in practical scenarios.

PaddlePaddle モデルの主な特徴

PaddlePaddle モデルは、多様な展開シナリオに対応する柔軟性、パフォーマンス、スケーラビリティに貢献するさまざまな主要機能を備えている:

  • Dynamic-to-Static Graph:PaddlePaddle は、モデルを静的な計算グラフに変換できる、動的から静的へのコンパイルをサポートしている。これにより、実行時のオーバーヘッドを削減し、推論性能を向上させる最適化が可能になる。

  • 演算子融合:PaddlePaddle TensorRT と同様、演算子フュージョンを使って計算を効率化し、オーバーヘッドを削減する。このフレームワークは、互換性のある演算をマージすることで、メモリ転送と計算ステップを最小化し、推論を高速化する。

  • 量子:PaddlePaddle は、トレーニング後の量子化や量子化を考慮したトレーニングなど、量子化テクニックをサポートしています。これらのテクニックは、より精度の低いデータ表現を使用することを可能にし、パフォーマンスを効果的に向上させ、モデルサイズを縮小します。

配備オプションPaddlePaddle

Before diving into the code for exporting YOLO11 models to PaddlePaddle, let's take a look at the different deployment scenarios in which PaddlePaddle models excel.

PaddlePaddle は、使いやすさ、柔軟性、性能のバランスがそれぞれ異なる、さまざまなオプションを提供している:

  • パドルサーヴィング:このフレームワークはPaddlePaddle 、高性能なRESTful APIとしてモデルのデプロイを簡素化する。Paddle Servingは本番環境に最適で、モデルのバージョン管理、オンラインA/Bテスト、大量のリクエストを処理するスケーラビリティなどの機能を提供します。

  • パドル推論APIPaddle Inference APIは、モデルの実行を低レベルで制御することができます。このオプションは、カスタムアプリケーション内にモデルを緊密に統合する必要がある場合や、特定のハードウェアに対してパフォーマンスを最適化する必要がある場合に適しています。

  • パドルライトPaddle Liteは、リソースが限られているモバイル機器や組み込み機器への展開のために設計されています。Paddle Liteは、ARM CPU、GPU、その他の特殊なハードウェア上で、モデルのサイズを小さくし、推論を高速化するために最適化されています。

  • Paddle.js:Paddle.jsはウェブブラウザ内で直接PaddlePaddle 。Paddle.jsは事前にトレーニングされたモデルを読み込むことも、Paddle.jsが提供するモデル変換ツールを使ってpaddle-hubからモデルを変換することもできます。WebGL/WebGPU/WebAssemblyをサポートするブラウザで実行できます。

Export to PaddlePaddle: Converting Your YOLO11 Model

Converting YOLO11 models to the PaddlePaddle format can improve execution flexibility and optimize performance for various deployment scenarios.

インストール

必要なパッケージをインストールするには、以下を実行する:

インストール

# Install the required package for YOLO11
pip install ultralytics

For detailed instructions and best practices related to the installation process, check our Ultralytics Installation guide. While installing the required packages for YOLO11, if you encounter any difficulties, consult our Common Issues guide for solutions and tips.

使用方法

Before diving into the usage instructions, it's important to note that while all Ultralytics YOLO11 models are available for exporting, you can ensure that the model you select supports export functionality here.

使用方法

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle  # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

サポートされているエクスポートオプションの詳細については、Ultralytics 配置オプションのドキュメントページを参照してください。

Deploying Exported YOLO11 PaddlePaddle Models

After successfully exporting your Ultralytics YOLO11 models to PaddlePaddle format, you can now deploy them. The primary and recommended first step for running a PaddlePaddle model is to use the YOLO("./model_paddle_model") method, as outlined in the previous usage code snippet.

しかし、PaddlePaddle のモデルを他の様々な環境で展開するための詳細な手順については、以下のリソースをご覧ください:

  • パドルサーブ:Paddle Servingを使って、PaddlePaddle のモデルをパフォーマントなサービスとしてデプロイする方法を学びましょう。

  • パドルライト:Paddle Liteを使用して、モバイルおよび組み込みデバイス上でモデルを最適化し、展開する方法を探ります。

  • パドル:Paddle.jsを使って、クライアントサイドのAIのためにウェブブラウザでPaddlePaddle 。

概要

In this guide, we explored the process of exporting Ultralytics YOLO11 models to the PaddlePaddle format. By following these steps, you can leverage PaddlePaddle's strengths in diverse deployment scenarios, optimizing your models for different hardware and software environments.

使い方の詳細については、PaddlePaddle 公式ドキュメントをご覧ください。

Want to explore more ways to integrate your Ultralytics YOLO11 models? Our integration guide page explores various options, equipping you with valuable resources and insights.

よくあるご質問

How do I export Ultralytics YOLO11 models to PaddlePaddle format?

Exporting Ultralytics YOLO11 models to PaddlePaddle format is straightforward. You can use the export YOLO メソッドを使ってエクスポートします。以下はPython を使った例です:

使用方法

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle  # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

より詳細なセットアップとトラブルシューティングについては、Ultralytics インストールガイドと 共通の問題ガイドを参照してください。

What are the advantages of using PaddlePaddle for model deployment?

PaddlePaddle には、モデル展開においていくつかの重要な利点がある:

  • パフォーマンスの最適化:PaddlePaddle は、効率的なモデル実行とメモリ使用量の削減に優れています。
  • ダイナミックからスタティックへのグラフ・コンパイル:動的から静的へのコンパイルをサポートし、実行時の最適化を可能にする。
  • 演算子の融合:互換性のある演算を融合することで、計算オーバーヘッドを削減する。
  • Quantization Techniques: Supports both post-training and quantization-aware training, enabling lower-precision data representations for improved performance.

You can achieve enhanced results by exporting your Ultralytics YOLO11 models to PaddlePaddle, ensuring flexibility and high performance across various applications and hardware platforms. Learn more about PaddlePaddle's features here.

Why should I choose PaddlePaddle for deploying my YOLO11 models?

PaddlePaddle, developed by Baidu, is optimized for industrial and commercial AI deployments. Its large developer community and robust framework provide extensive tools similar to TensorFlow and PyTorch. By exporting your YOLO11 models to PaddlePaddle, you leverage:

  • パフォーマンスの向上:最適な実行速度とメモリフットプリントの削減。
  • 柔軟性:スマートフォンからクラウドサーバーまで、様々なデバイスに幅広く対応。
  • スケーラビリティ:分散環境における効率的な並列処理機能

These features make PaddlePaddle a compelling choice for deploying YOLO11 models in production settings.

PaddlePaddle 、他のフレームワークと比較してモデルのパフォーマンスはどのように向上するのか?

PaddlePaddle モデルの性能を最適化するために、いくつかの高度な技術を採用している:

  • 動的グラフから静的グラフへ:実行時の最適化のために、モデルを静的な計算グラフに変換します。
  • 演算子の融合:互換性のある演算を組み合わせることで、メモリ転送を最小限に抑え、推論速度を向上させる。
  • Quantization: Reduces model size and increases efficiency using lower-precision data while maintaining accuracy.

These techniques prioritize efficient model execution, making PaddlePaddle an excellent option for deploying high-performance YOLO11 models. For more on optimization, see the PaddlePaddle official documentation.

What deployment options does PaddlePaddle offer for YOLO11 models?

PaddlePaddle は柔軟な展開オプションを提供する:

  • パドルサーブ:モデルをRESTful APIとしてデプロイし、モデルのバージョニングやオンラインA/Bテストなどの機能を備えたプロダクションに理想的なサービスです。
  • パドル推論API:カスタムアプリケーションのモデル実行を低レベルで制御。
  • パドルライト:モバイル機器や組み込み機器の限られたリソースにモデルを最適化します。
  • Paddle.js:ウェブブラウザ内でモデルを直接デプロイできる。

これらのオプションは、デバイス上での推論からスケーラブルなクラウドサービスまで、幅広い展開シナリオをカバーしています。Ultralytics Model Deployment Options のページで、より多くのデプロイメント戦略をご覧ください。

📅 Created 7 months ago ✏️ Updated 22 days ago

コメント