コンテンツにスキップ

YOLO26モデルからPaddlePaddle形式へエクスポートする方法

様々な条件を持つ実世界のシナリオでコンピュータービジョンモデルを開発しデプロイすることの間のギャップを埋めるのは難しい場合があります。PaddlePaddleは、柔軟性、パフォーマンス、および分散環境での並列処理能力に焦点を当てることで、このプロセスを容易にします。これにより、YOLO26コンピュータービジョンモデルをスマートフォンからクラウドベースのサーバーまで、多種多様なデバイスやプラットフォームで使用できます。



見る: Ultralytics YOLO26モデルをPaddlePaddle形式にエクスポートする方法 | PaddlePaddle形式の主要な機能

PaddlePaddleモデル形式へのエクスポート機能により、Ultralytics YOLO26モデルをPaddlePaddleフレームワーク内で使用するために最適化できます。PaddlePaddleは産業用デプロイメントを促進することで知られており、様々なドメインの実世界環境でコンピュータービジョンアプリケーションをデプロイするのに適した選択肢です。

PaddlePaddle へのエクスポートの利点は何ですか?

PaddlePaddle ロゴ

Baiduによって開発されたPaddlePaddlePArallel Distributed Deep LEarning)は、中国初のオープンソース深層学習プラットフォームです。PaddlePaddleは、主に研究用に構築された一部のフレームワークとは異なり、使いやすさと業界全体でのスムーズな統合を優先しています。

これは、TensorFlowPyTorchのような一般的なフレームワークと同様のツールとリソースを提供し、あらゆる経験レベルの開発者がアクセスしやすくなっています。農業や工場からサービス業まで、PaddlePaddle の 477 万人を超える大規模な開発者コミュニティが、AI アプリケーションの作成と展開を支援しています。

Ultralytics YOLO26モデルをPaddlePaddle形式にエクスポートすることで、PaddlePaddleのパフォーマンス最適化における強みを活用できます。PaddlePaddleは効率的なモデル実行とメモリ使用量の削減を優先します。その結果、YOLO26モデルはさらに優れたパフォーマンスを達成し、実用的なシナリオで最高の成果をもたらす可能性があります。

PaddlePaddleモデルの主な特徴

PaddlePaddleモデルは、多様な展開シナリオにおいて、その柔軟性、パフォーマンス、およびスケーラビリティに貢献する、さまざまな主要機能を提供します。

  • 動的グラフから静的グラフへ: PaddlePaddleは動的から静的へのコンパイルをサポートしており、モデルを静的な計算グラフに変換できます。これにより、ランタイムのオーバーヘッドを削減し、推論パフォーマンスを向上させる最適化が可能になります。

  • Operator Fusion: TensorRTと同様に、PaddlePaddleはoperator fusionを使用して計算を効率化し、オーバーヘッドを削減します。このフレームワークは、互換性のある操作を結合することで、メモリ転送と計算ステップを最小限に抑え、より高速な推論を実現します。

  • 量子化: PaddlePaddle は、ポストトレーニング量子化や量子化対応トレーニングなどの量子化手法をサポートしています。これらの手法により、低精度のデータ表現を使用できるようになり、パフォーマンスが効果的に向上し、モデルサイズが削減されます。

PaddlePaddle でのデプロイメントオプション

YOLO26モデルをPaddlePaddleにエクスポートするためのコードに入る前に、PaddlePaddleモデルが優れている様々なデプロイメントシナリオを見てみましょう。

PaddlePaddleは、使いやすさ、柔軟性、パフォーマンスのバランスがそれぞれ異なる、さまざまなオプションを提供します。

  • Paddle Serving: このフレームワークは、PaddlePaddleモデルを高性能なRESTful APIとして簡単にデプロイできるようにします。Paddle Servingは本番環境に最適で、モデルのバージョン管理、オンラインA/Bテスト、大量のリクエストを処理するためのスケーラビリティなどの機能を提供します。

  • Paddle Inference API: Paddle Inference APIは、モデル実行に対する低レベルの制御を提供します。このオプションは、カスタムアプリケーション内にモデルを密接に統合したり、特定のハードウェア向けにパフォーマンスを最適化したりする必要があるシナリオに最適です。

  • Paddle Lite: Paddle Liteは、リソースが限られているモバイルおよび組み込みデバイスでの展開向けに設計されています。ARM CPU、GPU、およびその他の特殊なハードウェア上で、より小さなサイズとより高速な推論のためにモデルを最適化します。

  • Paddle.js: Paddle.jsを使用すると、Webブラウザ内でPaddlePaddleモデルを直接デプロイできます。Paddle.jsは、事前学習済みモデルをロードするか、Paddle.jsが提供するモデル変換ツールを使用してpaddle-hubからモデルを変換できます。WebGL/WebGPU/WebAssemblyをサポートするブラウザで実行できます。

PaddlePaddleへのエクスポート:YOLO26モデルの変換

YOLO26モデルをPaddlePaddle形式に変換することで、様々なデプロイメントシナリオにおいて、実行の柔軟性を向上させ、パフォーマンスを最適化できます。

インストール

必要なパッケージをインストールするには、以下を実行します:

インストール

# Install the required package for YOLO26
pip install ultralytics

インストールプロセスに関する詳細な手順とベストプラクティスについては、Ultralyticsインストールガイドをご確認ください。YOLO26に必要なパッケージをインストールする際に問題が発生した場合は、解決策とヒントについてよくある問題ガイドを参照してください。

使用法

すべてのUltralytics YOLO26モデルはエクスポートをサポートしており、デプロイメントのニーズに最適なものを見つけるために、エクスポート形式とオプションの全リストを参照できます。

使用法

from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo26n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo26n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to PaddlePaddle format
yolo export model=yolo26n.pt format=paddle # creates '/yolo26n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo26n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

エクスポート引数

引数種類デフォルト説明
formatstr'paddle'エクスポートされたモデルのターゲット形式。さまざまなデプロイメント環境との互換性を定義します。
imgszint または tuple640モデル入力に必要な画像サイズ。正方形の画像の場合は整数、タプルの場合は (height, width) 特定の寸法の場合。
batchint1エクスポートされたモデルのバッチ推論サイズ、またはエクスポートされたモデルが同時に処理する画像の最大数を指定します。 predict モードを参照してください。
devicestrNoneエクスポート先のデバイスを指定します:CPU (device=cpu)、Apple シリコン用 MPS (device=mps)。

エクスポートプロセスの詳細については、エクスポートに関するUltralyticsドキュメントページをご覧ください。

エクスポートされたYOLO26 PaddlePaddleモデルのデプロイ

Ultralytics YOLO26モデルをPaddlePaddle形式に正常にエクスポートした後、それらをデプロイできます。PaddlePaddleモデルを実行するための主要かつ推奨される最初のステップは、以前の使用コードスニペットで概説されているように、YOLO("yolo26n_paddle_model/")メソッドを使用することです。

ただし、PaddlePaddleモデルをさまざまな設定でデプロイする方法の詳細については、以下のリソースをご覧ください。

  • Paddle Serving:Paddle Servingを使用して、PaddlePaddleモデルを高性能サービスとしてデプロイする方法を学びます。

  • Paddle Lite:Paddle Liteを使用して、モバイルおよび組み込みデバイスでモデルを最適化およびデプロイする方法を説明します。

  • Paddle.js:Paddle.jsを使用して、クライアント側のAIのためにWebブラウザでPaddlePaddleモデルを実行する方法を発見してください。

概要

このガイドでは、Ultralytics YOLO26モデルをPaddlePaddle形式にエクスポートするプロセスを探求しました。これらの手順に従うことで、PaddlePaddleの多様なデプロイメントシナリオにおける強みを活用し、異なるハードウェアおよびソフトウェア環境向けにモデルを最適化できます。

使用法の詳細については、PaddlePaddle公式ドキュメントをご覧ください。

Ultralytics YOLO26モデルを統合する他の方法を探求したいですか?当社の統合ガイドページでは、様々なオプションを探求し、貴重なリソースと洞察を提供します。

よくある質問

Ultralytics YOLO26モデルをPaddlePaddle形式にエクスポートするにはどうすればよいですか?

Ultralytics YOLO26モデルをPaddlePaddle形式にエクスポートするのは簡単です。使用できるのは export YOLOクラスのメソッドを使用して変換を実行します。以下にPythonを使用した例を示します:

使用法

from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo26n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo26n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to PaddlePaddle format
yolo export model=yolo26n.pt format=paddle # creates '/yolo26n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo26n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

より詳細な設定とトラブルシューティングについては、Ultralyticsインストールガイドよくある問題ガイドをご確認ください。

モデルのデプロイにPaddlePaddleを使用する利点は何ですか?

PaddlePaddleは、モデルのデプロイメントに関して、いくつかの重要な利点を提供します。

  • パフォーマンス最適化: PaddlePaddleは、効率的なモデル実行とメモリ使用量の削減に優れています。
  • 動的グラフから静的グラフへのコンパイル: 動的から静的へのコンパイルをサポートし、ランタイム最適化を可能にします。
  • Operator Fusion: 互換性のある操作をマージすることにより、計算のオーバーヘッドを削減します。
  • 量子化手法: ポストトレーニングと量子化対応トレーニングの両方をサポートし、パフォーマンスを向上させるために、より低い精度のデータ表現を可能にします。

Ultralytics YOLO26モデルをPaddlePaddleにエクスポートすることで、さまざまなアプリケーションやハードウェアプラットフォームで柔軟性と高いパフォーマンスを確保し、強化された結果を達成できます。公式のPaddlePaddleドキュメントでPaddlePaddleの主要な機能と能力をご確認ください。

YOLO26モデルのデプロイにPaddlePaddleを選択すべき理由は何ですか?

Baiduが開発したPaddlePaddleは、産業用および商用AIデプロイメント向けに最適化されています。その大規模な開発者コミュニティと堅牢なフレームワークは、TensorFlowやPyTorchと同様の広範なツールを提供します。YOLO26モデルをPaddlePaddleにエクスポートすることで、以下の利点を活用できます。

  • パフォーマンスの向上: 最適な実行速度と削減されたメモリフットプリント。
  • 柔軟性:スマートフォンからクラウドサーバーまで、さまざまなデバイスとの幅広い互換性があります。
  • スケーラビリティ: 分散環境向けの効率的な並列処理機能。

これらの機能により、PaddlePaddleはYOLO26モデルを本番環境にデプロイするための魅力的な選択肢となります。

PaddlePaddleは、他のフレームワークと比較して、どのようにモデルのパフォーマンスを向上させますか?

PaddlePaddleは、モデルのパフォーマンスを最適化するために、いくつかの高度な技術を採用しています。

  • 動的グラフから静的グラフへ: モデルを静的な計算グラフに変換して、ランタイムを最適化します。
  • Operator Fusion: 互換性のある操作を結合して、メモリ転送を最小限に抑え、推論速度を向上させます。
  • 量子化: 精度を維持しながら、低精度のデータを使用してモデルサイズを縮小し、効率を高めます。

これらの技術は効率的なモデル実行を優先し、PaddlePaddleを高性能なYOLO26モデルをデプロイするための優れた選択肢にしています。最適化の詳細については、PaddlePaddleの公式ドキュメントを参照してください。

PaddlePaddleはYOLO26モデル向けにどのようなデプロイオプションを提供しますか?

PaddlePaddleは、柔軟なデプロイメントオプションを提供します。

  • Paddle Serving: モデルをRESTful APIとしてデプロイします。モデルのバージョン管理やオンラインA/Bテストなどの機能を備えた本番環境に最適です。
  • Paddle Inference API: カスタムアプリケーションのモデル実行に対する低レベルの制御を提供します。
  • Paddle Lite: モバイルおよび組み込みデバイスの限られたリソース向けにモデルを最適化します。
  • Paddle.js: Webブラウザ内で直接モデルをデプロイできます。

これらのオプションは、オンデバイス推論からスケーラブルなクラウドサービスまで、幅広いデプロイシナリオをカバーしています。その他のデプロイ戦略については、Ultralyticsモデルのデプロイオプションページをご覧ください。



📅 1年前に作成 ✏️ 7日前に更新
glenn-jocherlakshanthadRizwanMunawarabirami-vinapderrengerlakshanthadUltralyticsAssistantMatthewNoyceBurhan-Q

コメント