コンテンツへスキップ

YOLO11 展開オプションの比較分析

はじめに

あなたはYOLO11 を使って、長い道のりを歩んできました。熱心にデータを収集し、綿密に注釈を付け、カスタムYOLO11 モデルをトレーニングし、厳密に評価するために時間を費やしてきました。そして今、あなたのモデルを特定のアプリケーション、ユースケース、プロジェクトに活用するときが来ました。しかし、あなたの前に立ちはだかる重大な決断があります。それは、あなたのモデルをどのようにエクスポートし、効果的に展開するかということです。

このガイドでは、YOLO11 の展開オプションと、プロジェクトに適したオプションを選択するために考慮すべき重要な要素について説明します。

YOLO11 モデルに適した配備オプションの選び方

YOLO11 モデルのデプロイを行うとき、適切なエクスポートフォーマットを選択することは非常に重要です。Ultralytics YOLO11 Modes ドキュメントに概説されているように、model.export()関数は、学習したモデルを様々な環境や性能要件に合わせた様々な形式に変換することができます。

理想的なフォーマットは、スピード、ハードウェアの制約、統合のしやすさのバランスを取りながら、モデルの意図する運用状況によって異なります。次のセクションでは、各エクスポート・オプションを詳しく見て、それぞれを選択するタイミングを理解します。

YOLO11展開オプション

YOLO11 のさまざまなデプロイメント・オプションについて説明しましょう。エクスポートの詳細な手順については、Ultralytics ドキュメントのエクスポートのページをご覧ください。

PyTorch

PyTorch は、ディープラーニングや 人工知能のアプリケーションに広く使われているオープンソースの機械学習ライブラリである。高い柔軟性とスピードを提供し、研究者や開発者の間で人気を博している。

  • パフォーマンス・ベンチマーク:PyTorch はその使いやすさと柔軟性で知られているが、その結果、より専門的で最適化された他のフレームワークと比較した場合、生のパフォーマンスにおいて若干のトレードオフが生じる可能性がある。
  • 互換性と統合:Python の様々なデータサイエンスおよび機械学習ライブラリとの優れた互換性を提供します。
  • コミュニティ・サポートとエコシステム:最も活気のあるコミュニティの1つで、学習やトラブルシューティングのための豊富なリソースがあります。
  • ケーススタディ:研究プロトタイプでよく使われ、多くの学術論文はPyTorch で展開されたモデルを参照している。
  • メンテナンスとアップデート:積極的な開発と新機能のサポートによる定期的なアップデート。
  • セキュリティに関する考慮事項:セキュリティ上の問題に対しては定期的にパッチを当てるが、セキュリティは導入環境全体に大きく左右される。
  • ハードウェアアクセラレーション:モデルのトレーニングや推論を高速化するために不可欠な、GPU アクセラレーション用のCUDA をサポート。

TorchScript

TorchScript C++ ランタイム環境で実行するモデルのエクスポートを可能にすることで、PyTorch の機能を拡張している。これにより、Python が利用できない本番環境に適している。

  • パフォーマンス・ベンチマーク:特に本番環境では、ネイティブPyTorch よりもパフォーマンスを向上させることができる。
  • 互換性と統合:PyTorch から C++ プロダクション環境へシームレスに移行できるように設計されていますが、一部の高度な機能は完全には移行できない場合があります。
  • コミュニティのサポートとエコシステム:PyTorch の大規模コミュニティの恩恵を受けるが、専門的な開発者の範囲は狭い。
  • ケーススタディ Python のパフォーマンス・オーバーヘッドがボトルネックとなっている産業環境で広く使用されている。
  • メンテナンスとアップデート:PyTorch 、一貫したアップデートを実施。
  • セキュリティへの配慮:Python が完全にインストールされていない環境でもモデルを実行できるようにすることで、セキュリティを向上させます。
  • ハードウェアアクセラレーション:PyTorch のCUDA サポートを継承し、GPU の効率的な利用を保証します。

ONNX

OpenNeural NetworkExchange (ONNX) は、異なるフレームワーク間でのモデルの相互運用性を可能にするフォーマットであり、様々なプラットフォームに展開する際に重要となる。

  • パフォーマンス・ベンチマーク:ONNX モデルは、導入されるランタイムによってパフォーマンスが変わる可能性があります。
  • 互換性と統合:フレームワークにとらわれない性質により、複数のプラットフォームやハードウェアにまたがる高い相互運用性。
  • コミュニティのサポートとエコシステム:多くの組織によってサポートされ、幅広いエコシステムと最適化のためのさまざまなツールにつながっている。
  • ケーススタディ異なる機械学習フレームワーク間でモデルを移動させるために頻繁に使用され、その柔軟性を示している。
  • メンテナンスとアップデート:オープンスタンダードとして、ONNX は定期的にアップデートされ、新しいオペレーションやモデルをサポートしている。
  • セキュリティの考慮:他のクロスプラットフォームツールと同様に、変換とデプロイのパイプラインで安全なプラクティスを確保することが不可欠です。
  • ハードウェアアクセラレーション:ONNX Runtimeを使用すると、モデルはさまざまなハードウェア最適化を活用できます。

OpenVINO

OpenVINO は、Intel ハードウェア全体へのディープラーニングモデルの展開を容易にし、パフォーマンスとスピードを向上させるために設計されたIntel ツールキットである。

  • パフォーマンスベンチマーク:特にIntel CPU、GPU、VPU向けに最適化されており、互換性のあるハードウェア上で大幅なパフォーマンス向上を実現します。
  • 互換性と統合:Intel のエコシステム内で最もよく機能するが、他のさまざまなプラットフォームもサポートしている。
  • コミュニティのサポートとエコシステム:Intel に支えられ、特にコンピュータ・ビジョンの分野では強固なユーザー・ベースがある。
  • ケーススタディ Intel 、ハードウェアが普及しているIoTやエッジコンピューティングのシナリオでよく利用される。
  • メンテナンスとアップデート:Intel 最新のディープラーニングモデルとIntel ハードウェアをサポートするため、OpenVINO を定期的にアップデートします。
  • セキュリティへの配慮:機密性の高いアプリケーションに適した堅牢なセキュリティ機能を提供。
  • ハードウェア・アクセラレーション:専用の命令セットとハードウェア機能を活用し、Intel ハードウェアでのアクセラレーション用に調整されています。

OpenVINO を使用した展開の詳細については、Ultralytics Integration のドキュメントを参照してください:Intel OpenVINO エクスポート

TensorRT

TensorRT は、NVIDIA が提供する高性能なディープラーニング推論オプティマイザとランタイムで、スピードと効率を必要とするアプリケーションに最適です。

  • 性能ベンチマーク:高速推論をサポートし、NVIDIA GPU上でトップクラスのパフォーマンスを実現。
  • 互換性と統合:NVIDIA ハードウェアに最適で、この環境以外でのサポートは限定的。
  • コミュニティ・サポートとエコシステム:NVIDIA の開発者フォーラムやドキュメントを通じた強力なサポートネットワーク。
  • ケーススタディビデオや画像データのリアルタイム推論を必要とする業界で広く採用されている。
  • メンテナンスとアップデート:NVIDIA は、パフォーマンスを向上させ、新しいGPU アーキテクチャをサポートするために、頻繁なアップデートでTensorRT を維持します。
  • セキュリティへの配慮:多くのNVIDIA 製品と同様、セキュリティに重点を置いているが、具体的な内容は導入環境に依存する。
  • ハードウェア・アクセラレーション:NVIDIA GPU専用に設計され、高度な最適化と高速化を提供します。

TensorRT デプロイに関する詳細は、TensorRT 統合ガイドを参照してください。

CoreML

CoreML はアップルの機械学習フレームワークで、iOS 、macOS、watchOS、tvOSを含むアップルのエコシステムにおけるオンデバイス・パフォーマンスのために最適化されている。

  • パフォーマンスベンチマーク:Apple製ハードウェアのデバイス上でのパフォーマンスに最適化され、バッテリーの消費を最小限に抑えます。
  • 互換性と統合:Appleのエコシステム専用で、iOS 、macOSアプリケーションに合理的なワークフローを提供します。
  • コミュニティのサポートとエコシステム:Appleの強力なサポートと熱心な開発者コミュニティ、豊富なドキュメントとツール。
  • ケーススタディアップル製品のデバイス上での機械学習機能を必要とするアプリケーションでよく使用される。
  • メンテナンスとアップデート:最新の機械学習の進歩とAppleのハードウェアをサポートするために、Appleによって定期的に更新されます。
  • セキュリティへの配慮:ユーザーのプライバシーとデータ・セキュリティに重点を置くアップルの恩恵。
  • ハードウェアアクセラレーション:Appleのニューラル・エンジンとGPU を最大限に活用し、機械学習タスクを加速。

TF SavedModel

TF SavedModel は、TensorFlow 機械学習モデルの保存と提供のためのフォーマットで、特にスケーラブルなサーバー環境に適している。

  • パフォーマンス・ベンチマークサーバー環境において、特にTensorFlow Servingと併用することで、スケーラブルなパフォーマンスを提供します。
  • 互換性と統合:クラウドやエンタープライズサーバーのデプロイメントを含む、TensorFlow のエコシステム全体にわたる幅広い互換性。
  • コミュニティのサポートとエコシステム:TensorFlow の人気による大規模なコミュニティ・サポート、デプロイと最適化のための膨大なツール群。
  • ケーススタディディープラーニングモデルを大規模に提供するための本番環境で広く使用されている。
  • メンテナンスとアップデート:Google とTensorFlow コミュニティのサポートにより、定期的なアップデートと新機能が保証されます。
  • セキュリティへの配慮:TensorFlow Servingを使用したデプロイメントには、エンタープライズ・グレードのアプリケーションのための堅牢なセキュリティ機能が含まれています。
  • ハードウェア・アクセラレーション:TensorFlow のバックエンドを通じて様々なハードウェアアクセラレーションをサポートします。

TF GraphDef

TF GraphDef は、モデルをグラフとして表現するTensorFlow 。これは、静的な計算グラフが必要な環境にとって有益なフォーマットである。

  • 性能ベンチマーク:一貫性と信頼性に重点を置き、静的計算グラフの安定したパフォーマンスを提供します。
  • 互換性と統合:TensorFlow のインフラに簡単に統合できるが、SavedModel と比べると柔軟性に欠ける。
  • コミュニティのサポートとエコシステム:静的グラフを最適化するための多くのリソースが利用可能で、TensorFlow のエコシステムによる優れたサポート。
  • ケーススタディ:特定の組み込みシステムなど、静的なグラフが必要なシナリオで役立つ。
  • メンテナンスとアップデート:TensorFlow のコアアップデートと並行して、定期的なアップデートを行います。
  • セキュリティへの配慮:TensorFlow の確立されたセキュリティ慣行により、安全な配備を保証する。
  • ハードウェア・アクセラレーション:SavedModel ほど柔軟ではないが、TensorFlow のハードウェアアクセラレーションオプションを利用できる。

TF GraphDef 詳細については、TF GraphDef インテグレーションガイドをご覧ください。

TF ライト

TF Liteは、TensorFlow'モバイルおよび組み込みデバイスの機械学習のためのソリューションであり、オンデバイス推論のための軽量ライブラリを提供する。

  • パフォーマンス・ベンチマーク:モバイル機器や組み込み機器でのスピードと効率性を追求した設計。
  • 互換性と統合性:軽量であるため、様々なデバイスで使用可能。
  • コミュニティ・サポートとエコシステム:Google 、強固なコミュニティがあり、開発者向けのリソースも増えている。
  • ケーススタディ最小限のフットプリントでデバイス上での推論を必要とするモバイルアプリケーションに人気。
  • メンテナンスとアップデート定期的なアップデートにより、最新の機能とモバイルデバイス向けの最適化を提供します。
  • セキュリティへの配慮:エンドユーザーデバイス上でモデルを実行するためのセキュアな環境を提供します。
  • ハードウェア・アクセラレーション:GPU 、DSPなど、さまざまなハードウェア・アクセラレーション・オプションをサポート。

TF エッジTPU

TF EdgeTPU は、Google の EdgeTPU ハードウェア上で高速かつ効率的なコンピューティングを行うように設計されており、リアルタイム処理を必要とする IoT デバイスに最適です。

  • 性能ベンチマーク:Google's EdgeTPU ハードウェアでの高速で効率的なコンピューティングに最適化されています。
  • 互換性と統合:EdgeTPU デバイスのTensorFlow Lite モデルでのみ動作します。
  • コミュニティ・サポートとエコシステム:Google 、サードパーティの開発者が提供するリソースでサポートを拡大。
  • ケーススタディ低レイテンシーでリアルタイム処理が必要なIoT機器やアプリケーションに使用。
  • メンテナンスとアップデート:新しいEdgeTPU ハードウェア・リリースの機能を活用するため、継続的に改良。
  • セキュリティへの配慮:Google 、IoTおよびエッジデバイス向けの堅牢なセキュリティと統合。
  • ハードウェア・アクセラレーション:Google Coralデバイスを最大限に活用できるようにカスタム設計されています。

TF.js

TensorFlow.js(TF.js)は、機械学習機能をブラウザに直接もたらすライブラリであり、ウェブ開発者とユーザーに新たな可能性を提供する。バックエンドのインフラを必要とせずに、ウェブアプリケーションに機械学習モデルを統合することができます。

  • パフォーマンスベンチマーク:クライアント・デバイスにもよるが、妥当なパフォーマンスで、ブラウザーで直接機械学習が可能。
  • 互換性と統合:ウェブテクノロジーとの高い互換性により、ウェブアプリケーションに簡単に統合できます。
  • コミュニティのサポートとエコシステム:ウェブとNode.js開発者のコミュニティによるサポートと、MLモデルをブラウザにデプロイするための様々なツール。
  • ケーススタディサーバーサイドの処理を必要とせず、クライアントサイドの機械学習の恩恵を受けるインタラクティブなウェブアプリケーションに最適です。
  • メンテナンスと更新:オープンソースコミュニティからの貢献により、TensorFlow チームがメンテナンスを行っています。
  • セキュリティへの配慮:ウェブ・プラットフォームのセキュリティ・モデルを利用し、ブラウザのセキュア・コンテキスト内で実行される。
  • ハードウェアアクセラレーション:WebGLのようなハードウェアアクセラレーションにアクセスするウェブベースのAPIを使用することで、パフォーマンスを向上させることができます。

PaddlePaddle

PaddlePaddle は、百度が開発したオープンソースのディープラーニングフレームワークである。研究者にとっては効率的で、開発者にとっては使いやすいように設計されている。特に中国で人気があり、中国語処理に特化したサポートを提供している。

  • パフォーマンス・ベンチマーク使いやすさと拡張性に重点を置き、競争力のあるパフォーマンスを提供。
  • 互換性と統合:Baiduのエコシステム内にうまく統合され、幅広いアプリケーションをサポートしています。
  • コミュニティのサポートとエコシステム:コミュニティは世界的には小さいが、特に中国では急速に成長している。
  • ケーススタディ中国市場や、他の主要なフレームワークの代替を探している開発者によく使われている。
  • メンテナンスとアップデート中国語のAIアプリケーションとサービスの提供を中心に定期的に更新。
  • セキュリティへの配慮データプライバシーとセキュリティを重視し、中国のデータガバナンス基準に対応。
  • ハードウェアアクセラレーション:バイドゥ独自のKunlunチップを含む様々なハードウェアアクセラレーションをサポート。

MNN

MNNは非常に効率的で軽量なディープラーニングフレームワークである。ディープラーニングモデルの推論と学習をサポートし、デバイス上での推論と学習において業界をリードするパフォーマンスを発揮する。また、MNNはIoTなどの組み込み機器でも利用されている。

  • パフォーマンス・ベンチマーク:ARMシステムに最適化されたモバイル機器向けの高性能。
  • 互換性と統合:モバイルおよび組み込みのARMシステム、X86-64CPU アーキテクチャで動作します。
  • コミュニティのサポートとエコシステム:モバイルおよび組み込み機械学習コミュニティによるサポート。
  • ケーススタディモバイルシステムで効率的なパフォーマンスを必要とするアプリケーションに最適です。
  • メンテナンスとアップデート定期的なメンテナンスにより、モバイルデバイスでの高いパフォーマンスを保証します。
  • セキュリティへの配慮:データをローカルに保つことで、オンデバイス・セキュリティの利点を提供。
  • ハードウェア・アクセラレーション:ARM CPUとGPUに最適化され、最大限の効率を実現。

NCNN

NCNN は、モバイルプラットフォーム向けに最適化された高性能なニューラルネットワーク推論フレームワークである。軽量かつ効率的な点が特徴で、リソースが限られているモバイル機器や組み込み機器に特に適している。

  • パフォーマンス・ベンチマーク:モバイル・プラットフォーム向けに高度に最適化されており、ARMベースのデバイスで効率的な推論が可能。
  • 互換性と統合:携帯電話やARMアーキテクチャの組み込みシステムでのアプリケーションに適しています。
  • コミュニティのサポートとエコシステム:モバイルおよび組み込みMLアプリケーションに特化した、ニッチだが活発なコミュニティに支えられている。
  • ケーススタディ Android 、その他のARMベースのシステムで、効率とスピードが重視されるモバイル・アプリケーションに適しています。
  • メンテナンスとアップデート様々なARMデバイス上で高いパフォーマンスを維持するために継続的に改良されています。
  • セキュリティへの配慮:デバイス上でローカルに実行することに重点を置き、デバイス上での処理に固有のセキュリティを活用する。
  • ハードウェア・アクセラレーション:ARM CPUおよびGPU向けにカスタマイズされ、これらのアーキテクチャに特化した最適化が施されています。

YOLO11 展開オプションの比較分析

以下の表は、YOLO11 モデルで利用可能なさまざまな展開オプショ ンのスナップショットであり、いくつかの重要な基準に基づいて、プロジェクト ニーズに最適な展開オプションを評価するのに役立ちます。各展開オプションのフォーマットについての詳細は、Ultralytics ドキュメントのエクスポートフォーマットのページを参照してください。

展開オプション パフォーマンス・ベンチマーク 互換性と統合 地域社会のサポートとエコシステム ケーススタディ メンテナンスとアップデート セキュリティへの配慮 ハードウェア・アクセラレーション
PyTorch 優れた柔軟性。 Python ライブラリとの相性抜群 豊富なリソースとコミュニティ 研究とプロトタイプ 定期的かつ積極的な開発 配備環境による CUDA GPU アクセラレーション対応
TorchScript よりも生産に適している。PyTorch PyTorch から C++ へのスムーズな移行 専門性は高いが幅は狭いPyTorch Python がボトルネックとなっている業界 一貫したアップデートPyTorch 完全でないセキュリティの向上Python のCUDA サポートを継承している。PyTorch
ONNX ランタイムにより変動 異なるフレームワークで高い 多くの組織に支えられた幅広いエコシステム MLフレームワーク間の柔軟性 新規事業のための定期的な更新 安全な変換と配備の実践 様々なハードウェアの最適化
OpenVINO Intel ハードウェアに最適化 Intel エコシステム内で最高 コンピュータ・ビジョンの分野で確固たる実績がある Intel ハードウェアによるIoTとエッジ Intel ハードウェアの定期的なアップデート 繊細なアプリケーションのための堅牢な機能 Intel ハードウェアに対応
TensorRT NVIDIA GPUでトップレベル NVIDIA ハードウェアに最適 強力なネットワークNVIDIA リアルタイム映像・画像推論 新しいGPUのための頻繁なアップデート セキュリティ重視 NVIDIA GPU用に設計
CoreML デバイス上のApple製ハードウェアに最適化 アップルのエコシステム専用 アップルとデベロッパーの強力なサポート アップル製品のオンデバイスML アップルの定期的なアップデート プライバシーとセキュリティの重視 アップルのニューラル・エンジンとGPU
TF SavedModel サーバー環境での拡張性 TensorFlow エコシステムにおける幅広い互換性 TensorFlow 人気による大きな支持 模型をスケールで提供 Google とコミュニティによる定期的な更新 企業向けの堅牢な機能 様々なハードウェア・アクセラレーション
TF GraphDef 静的計算グラフの安定性 TensorFlow インフラとうまく統合 静的グラフを最適化するためのリソース 静的グラフを必要とするシナリオ TensorFlow コアと並行してアップデート 確立されたTensorFlow セキュリティ慣行 TensorFlow 加速オプション
TF ライト モバイル/組み込みにおけるスピードと効率性 幅広いデバイスに対応 強固なコミュニティ、Google フットプリントを最小限に抑えたモバイルアプリケーション モバイル向け最新機能 エンドユーザー・デバイスのセキュアな環境 GPU DSPなど
TF エッジTPU Google's EdgeTPU ハードウェアに最適化されています。 エッジ専用TPU デバイス Google 、サードパーティのリソースで成長する リアルタイム処理が必要なIoT機器 新しいEdgeTPU ハードウェアの改善 Google堅牢なIoTセキュリティ Google 珊瑚のためのカスタムデザイン
TF.js 適度なブラウザ内パフォーマンス ウェブ技術に高い関心 WebおよびNode.js開発者のサポート インタラクティブなウェブアプリケーション TensorFlow チームとコミュニティへの貢献 ウェブ・プラットフォームのセキュリティ・モデル WebGLやその他のAPIで強化
PaddlePaddle 競争力、使いやすさ、拡張性 百度のエコシステム、幅広いアプリケーションサポート 中国を中心に急成長 中国市場と言語処理 中国のAIアプリケーションに注目 データのプライバシーとセキュリティを重視 バイドゥの崑崙チップを含む
MNN モバイル機器のための高性能。 モバイルおよび組み込みARMシステムとX86-64CPU モバイル/組み込みMLコミュニティ モバイルシステムの効率性 モバイル機器の高性能メンテナンス オンデバイス・セキュリティの利点 ARM CPUとGPUの最適化
NCNN モバイルARMベース・デバイスに最適化 モバイルおよび組み込みARMシステム ニッチだが活発なモバイル/組み込みMLコミュニティ Android およびARMシステムの効率 ARMの高性能メンテナンス オンデバイス・セキュリティの利点 ARM CPUとGPUの最適化

この比較分析では、ハイレベルな概要を説明します。導入にあたっては、プロジェクト固有の要件や制約を考慮し、各オプションで利用可能な詳細なドキュメントやリソースを参照することが不可欠です。

コミュニティとサポート

YOLO11 を始めようとするとき、役に立つコミュニティやサポートがあれば、大きな影響を与えることができます。ここでは、同じ関心を持つ人たちとつながり、必要な支援を得る方法を紹介します。

より広いコミュニティとの関わり

  • GitHubのディスカッション GitHubのYOLO11 リポジトリには「Discussions」セクションがあり、質問や問題の報告、改善の提案ができます。
  • Ultralytics Discordサーバー: Ultralytics にはDiscordサーバーがあり、他のユーザーや開発者と交流することができます。

公式文書とリソース

  • Ultralytics YOLO11 ドキュメント 公式ドキュメントでは、YOLO11 の包括的な概要と、インストール、使用方法、トラブルシューティングに関するガイドを提供しています。

これらのリソースは、課題に取り組み、YOLO11 コミュニティの最新トレンドとベストプラクティスを常に更新するのに役立ちます。

結論

このガイドでは、YOLO11 のさまざまな導入オプションについて検討しました。また、選択する際に考慮すべき重要な要素についても説明した。これらのオプションにより、様々な環境や性能要件に合わせてモデルをカスタマイズすることができ、実際のアプリケーションに適したものにすることができます。

YOLO11 Ultralytics コミュニティが貴重な助けの源であることを忘れないでください。他の開発者や専門家とつながることで、通常のドキュメントにはないユニークなヒントやソリューションを学ぶことができます。知識を求め、新しいアイデアを探求し、経験を共有し続けてください。

ハッピー・デプロイ!

よくあるご質問

YOLO11 、さまざまなハードウェア・プラットフォームで利用可能なデプロイメント・オプションは何ですか?

Ultralytics YOLO11 はさまざまな展開形式をサポートしており、それぞれが特定の環境やハードウェアプラットフォーム向けに設計されています。主なフォーマットは以下の通り:

  • PyTorch研究およびプロトタイピング用で、優れたPython 。
  • TorchScriptPython が利用できない本番環境向け。
  • ONNXクロスプラットフォームの互換性とハードウェアアクセラレーションのために。
  • OpenVINOIntel 、ハードウェアのパフォーマンスを最適化する。
  • TensorRTNVIDIA GPUでの高速推論のために。

各フォーマットには独自の利点があります。詳しくは、エクスポート・プロセスのドキュメントをご覧ください。

Intel CPU でYOLO11 モデルの推論速度を向上させるには?

Intel CPUでの推論速度を向上させるために、Intel のOpenVINO ツールキットを使用してYOLO11 モデルを展開することができます。OpenVINO は、Intel ハードウェアを効率的に活用するためにモデルを最適化することで、パフォーマンスを大幅に向上させます。

  1. を使用して、YOLO11 モデルをOpenVINO フォーマットに変換する。 model.export() 関数である。
  2. Intel OpenVINO Export ドキュメントの詳細なセットアップガイドに従ってください。

詳しくはブログ記事をご覧ください。

YOLO11 モデルをモバイル・デバイスに展開できますか?

はい、YOLO11 のモデルは、 と の両プラットフォーム用の Lite ( Lite ) を使用してモバイルデバイスに展開できます。 TensorFlowAndroid とiOS の両プラットフォーム用の Lite (TF Lite)。TF Liteはモバイルおよび組み込みデバイス用に設計されており、効率的なオンデバイス推論を提供します。

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

モバイルへのモデル展開の詳細については、TF Liteインテグレーションガイドをご参照ください。

YOLO11 モデルのデプロイメント形式を選択する際、どのような要素を考慮すべきでしょうか?

YOLO11 のデプロイメント形式を選択する際には、以下の要素を考慮してください:

  • パフォーマンス:TensorRT のようないくつかのフォーマットは、NVIDIA GPU 上で卓越した速度を提供するが、OpenVINO はIntel ハードウェア用に最適化されている。
  • 互換性:ONNX は、さまざまなプラットフォームで幅広い互換性を提供する。
  • 統合の容易さ:CoreML やTF Lite のようなフォーマットは、それぞれiOS やAndroid のような特定のエコシステム用に調整されている。
  • コミュニティーのサポート:以下のようなフォーマットがある。 PyTorchやTensorFlow のようなフォーマットには、広範なコミュニティリソースとサポートがある。

比較分析については、輸出フォーマットに関する資料をご参照ください。

YOLO11 のモデルをウェブ・アプリケーションに導入するには?

ウェブ・アプリケーションにYOLO11 モデルを導入するには、TensorFlow.js (TF.js) を使用することができます。これは、機械学習モデルをブラウザで直接実行することを可能にします。このアプローチでは、バックエンドのインフラが不要になり、リアルタイムのパフォーマンスが得られる。

  1. YOLO11 モデルをTF.js フォーマットにエクスポートします。
  2. エクスポートしたモデルをWebアプリケーションに統合します。

ステップバイステップの手順については、TensorFlow.jsの統合に関するガイドを参照してください。

📅作成:1年前 ✏️更新しました 7日前

コメント