コンテンツにスキップ

YOLO11モデルからPaddlePaddle形式にエクスポートする方法

さまざまな条件下での現実世界のシナリオで、コンピュータービジョンモデルの開発と展開の間のギャップを埋めることは困難な場合があります。PaddlePaddleは、柔軟性、パフォーマンス、および分散環境での並列処理機能に重点を置いているため、このプロセスを容易にします。つまり、スマートフォンからクラウドベースのサーバーまで、さまざまなデバイスやプラットフォームでYOLO11コンピュータービジョンモデルを使用できます。



見る: Ultralytics YOLO11モデルをPaddlePaddle形式にエクスポートする方法 | PaddlePaddle形式の主な機能

PaddlePaddleモデル形式へのエクスポート機能により、Ultralytics YOLO11モデルを最適化し、PaddlePaddleフレームワーク内で使用できます。PaddlePaddleは、産業用展開を促進することで知られており、さまざまな分野にわたる現実世界の環境でコンピュータビジョンアプリケーションをデプロイするのに適しています。

PaddlePaddle へのエクスポートの利点は何ですか?

PaddlePaddleのロゴ

Baiduによって開発されたPaddlePaddlePArallel Distributed Deep LEarning)は、中国初のオープンソース深層学習プラットフォームです。PaddlePaddleは、主に研究用に構築された一部のフレームワークとは異なり、使いやすさと業界全体でのスムーズな統合を優先しています。

これは、TensorFlowPyTorchのような一般的なフレームワークと同様のツールとリソースを提供し、あらゆる経験レベルの開発者がアクセスしやすくなっています。農業や工場からサービス業まで、PaddlePaddle の 477 万人を超える大規模な開発者コミュニティが、AI アプリケーションの作成と展開を支援しています。

Ultralytics YOLO11モデルをPaddlePaddle形式でエクスポートすることで、PaddlePaddleのパフォーマンス最適化における強みを活用できます。PaddlePaddleは、効率的なモデル実行とメモリ使用量の削減を優先します。その結果、YOLO11モデルは潜在的により優れたパフォーマンスを達成し、実用的なシナリオで最高の成果を提供できます。

PaddlePaddleモデルの主な特徴

PaddlePaddleモデルは、多様な展開シナリオにおいて、その柔軟性、パフォーマンス、およびスケーラビリティに貢献する、さまざまな主要機能を提供します。

  • 動的グラフから静的グラフへ: PaddlePaddleは動的から静的へのコンパイルをサポートしており、モデルを静的な計算グラフに変換できます。これにより、ランタイムのオーバーヘッドを削減し、推論パフォーマンスを向上させる最適化が可能になります。

  • Operator Fusion: TensorRTと同様に、PaddlePaddleはoperator fusionを使用して計算を効率化し、オーバーヘッドを削減します。このフレームワークは、互換性のある操作を結合することで、メモリ転送と計算ステップを最小限に抑え、より高速な推論を実現します。

  • 量子化: PaddlePaddle は、ポストトレーニング量子化や量子化対応トレーニングなどの量子化手法をサポートしています。これらの手法により、低精度のデータ表現を使用できるようになり、パフォーマンスが効果的に向上し、モデルサイズが削減されます。

PaddlePaddle でのデプロイメントオプション

YOLO11モデルをPaddlePaddleにエクスポートするためのコードに入る前に、PaddlePaddleモデルが優れているさまざまなデプロイメントシナリオを見てみましょう。

PaddlePaddleは、使いやすさ、柔軟性、パフォーマンスのバランスがそれぞれ異なる、さまざまなオプションを提供します。

  • Paddle Serving: このフレームワークは、PaddlePaddleモデルを高性能なRESTful APIとして簡単にデプロイできるようにします。Paddle Servingは本番環境に最適で、モデルのバージョン管理、オンラインA/Bテスト、大量のリクエストを処理するためのスケーラビリティなどの機能を提供します。

  • Paddle Inference API: Paddle Inference APIを使用すると、モデルの実行を低レベルで制御できます。このオプションは、カスタムアプリケーション内でモデルを緊密に統合したり、特定のハードウェアに合わせてパフォーマンスを最適化したりする必要があるシナリオに適しています。

  • Paddle Lite: Paddle Liteは、リソースが限られているモバイルおよび組み込みデバイスでの展開向けに設計されています。ARM CPU、GPU、およびその他の特殊なハードウェア上で、より小さなサイズとより高速な推論のためにモデルを最適化します。

  • Paddle.js: Paddle.jsを使用すると、Webブラウザ内で直接PaddlePaddleモデルをデプロイできます。Paddle.jsは、事前トレーニング済みのモデルをロードするか、Paddle.jsが提供するモデル変換ツールを使用してpaddle-hubからモデルを変換できます。WebGL/WebGPU/WebAssemblyをサポートするブラウザで実行できます。

PaddlePaddleへのエクスポート:YOLO11モデルの変換

YOLO11モデルをPaddlePaddle形式に変換すると、実行の柔軟性が向上し、さまざまなデプロイメントシナリオでパフォーマンスを最適化できます。

インストール

必要なパッケージをインストールするには、以下を実行します:

インストール

# Install the required package for YOLO11
pip install ultralytics

インストールプロセスに関する詳細な手順とベストプラクティスについては、Ultralyticsインストールガイドをご確認ください。YOLO11に必要なパッケージのインストール中に問題が発生した場合は、よくある問題ガイドで解決策とヒントを参照してください。

使用法

すべてのUltralytics YOLO11モデルはエクスポートをサポートしており、エクスポート形式とオプションの完全なリストを参照して、デプロイメントのニーズに最適なものを見つけることができます。

使用法

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

エクスポート引数

引数 種類 デフォルト 説明
format str 'paddle' エクスポートされたモデルのターゲット形式。さまざまなデプロイメント環境との互換性を定義します。
imgsz int または tuple 640 モデル入力に必要な画像サイズ。正方形の画像の場合は整数、タプルの場合は (height, width) 特定の寸法の場合。
batch int 1 エクスポートされたモデルのバッチ推論サイズ、またはエクスポートされたモデルが同時に処理する画像の最大数を指定します。 predict モードを参照してください。
device str None エクスポート先のデバイスを指定します:CPU (device=cpu)、Apple シリコン用 MPS (device=mps)。

エクスポートプロセスの詳細については、エクスポートに関するUltralyticsドキュメントページをご覧ください。

エクスポートされた YOLO11 PaddlePaddle モデルのデプロイ

Ultralytics YOLO11モデルをPaddlePaddle形式に正常にエクスポートした後、それらをデプロイできます。PaddlePaddleモデルを実行するための主要かつ推奨される最初のステップは、前の使用コードスニペットで概説されているように、YOLO("yolo11n_paddle_model/")メソッドを使用することです。

ただし、PaddlePaddleモデルをさまざまな設定でデプロイする方法の詳細については、以下のリソースをご覧ください。

  • Paddle Serving:Paddle Servingを使用して、PaddlePaddleモデルを高性能サービスとしてデプロイする方法を学びます。

  • Paddle Lite:Paddle Liteを使用して、モバイルおよび組み込みデバイスでモデルを最適化およびデプロイする方法を説明します。

  • Paddle.js:Paddle.jsを使用して、クライアント側のAIのためにWebブラウザでPaddlePaddleモデルを実行する方法を発見してください。

概要

このガイドでは、Ultralytics YOLO11モデルをPaddlePaddle形式にエクスポートするプロセスを解説しました。これらの手順に従うことで、さまざまなハードウェアおよびソフトウェア環境向けにモデルを最適化し、多様なデプロイシナリオでPaddlePaddleの強みを活用できます。

使い方の詳細については、PaddlePaddleの公式ドキュメントをご覧ください。

Ultralytics YOLO11モデルの統合方法についてさらに知りたいですか?統合ガイドページでは、さまざまなオプションを紹介し、貴重なリソースと洞察を提供します。

よくある質問

Ultralytics YOLO11モデルをPaddlePaddle形式にエクスポートするにはどうすればよいですか?

Ultralytics YOLO11モデルをPaddlePaddle形式にエクスポートするのは簡単です。次のものを使用できます。 export このエクスポートを実行するには、YOLOクラスのメソッドを使用します。以下にpythonを使用した例を示します。

使用法

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

より詳細な設定とトラブルシューティングについては、Ultralyticsインストールガイドよくある問題ガイドをご確認ください。

モデルのデプロイにPaddlePaddleを使用する利点は何ですか?

PaddlePaddleは、モデルのデプロイメントに関して、いくつかの重要な利点を提供します。

  • パフォーマンス最適化: PaddlePaddleは、効率的なモデル実行とメモリ使用量の削減に優れています。
  • 動的グラフから静的グラフへのコンパイル: 動的から静的へのコンパイルをサポートし、ランタイム最適化を可能にします。
  • Operator Fusion: 互換性のある操作をマージすることにより、計算のオーバーヘッドを削減します。
  • 量子化手法: ポストトレーニングと量子化対応トレーニングの両方をサポートし、パフォーマンスを向上させるために、より低い精度のデータ表現を可能にします。

Ultralytics YOLO11モデルをPaddlePaddleにエクスポートすることで、さまざまなアプリケーションやハードウェアプラットフォームで柔軟性と高いパフォーマンスを確保し、より優れた結果を得ることができます。PaddlePaddleの主な機能と性能については、PaddlePaddleの公式ドキュメントをご覧ください。

YOLO11モデルのデプロイにPaddlePaddleを選ぶべきなのはなぜですか?

Baiduによって開発されたPaddlePaddleは、産業用および商用AIデプロイメント向けに最適化されています。その大規模な開発者コミュニティと堅牢なフレームワークは、TensorFlowやPyTorchと同様の広範なツールを提供します。YOLO11モデルをPaddlePaddleにエクスポートすることで、以下を活用できます。

  • パフォーマンスの向上: 最適な実行速度と削減されたメモリフットプリント。
  • 柔軟性:スマートフォンからクラウドサーバーまで、さまざまなデバイスとの幅広い互換性があります。
  • スケーラビリティ: 分散環境向けの効率的な並列処理機能。

これらの機能により、PaddlePaddleは、本番環境でのYOLO11モデルのデプロイに魅力的な選択肢となります。

PaddlePaddleは、他のフレームワークと比較して、どのようにモデルのパフォーマンスを向上させますか?

PaddlePaddleは、モデルのパフォーマンスを最適化するために、いくつかの高度な技術を採用しています。

  • 動的グラフから静的グラフへ: モデルを静的な計算グラフに変換して、ランタイムを最適化します。
  • Operator Fusion: 互換性のある操作を結合して、メモリ転送を最小限に抑え、推論速度を向上させます。
  • 量子化: 精度を維持しながら、低精度のデータを使用してモデルサイズを縮小し、効率を高めます。

これらの手法は、効率的なモデル実行を優先するため、PaddlePaddleは高性能なYOLO11モデルをデプロイするための優れた選択肢となります。最適化の詳細については、PaddlePaddleの公式ドキュメントを参照してください。

PaddlePaddleは、YOLO11モデルにどのようなデプロイオプションを提供していますか?

PaddlePaddleは、柔軟なデプロイメントオプションを提供します。

  • Paddle Serving: モデルをRESTful APIとしてデプロイします。モデルのバージョン管理やオンラインA/Bテストなどの機能を備えた本番環境に最適です。
  • Paddle Inference API: カスタムアプリケーション向けに、モデル実行を低レベルで制御できます。
  • Paddle Lite: モバイルおよび組み込みデバイスの限られたリソース向けにモデルを最適化します。
  • Paddle.js: Webブラウザ内で直接モデルをデプロイできます。

これらのオプションは、オンデバイス推論からスケーラブルなクラウドサービスまで、幅広いデプロイシナリオをカバーしています。その他のデプロイ戦略については、Ultralyticsモデルのデプロイオプションページをご覧ください。



📅 1年前に作成 ✏️ 4か月前に更新

コメント