コンテンツにスキップ

YOLO11 のデプロイオプションの比較分析

はじめに

YOLO11との旅は長い道のりでした。熱心にデータを収集し、細心の注意を払ってアノテーションを付け、カスタムYOLO11モデルをトレーニングして厳密に評価するために時間を費やしました。いよいよ、特定のアプリケーション、ユースケース、またはプロジェクトのためにモデルを実用化する時が来ました。しかし、目の前には重要な決定が立ちはだかっています。モデルを効果的にエクスポートおよびデプロイする方法です。



見る: プロジェクトに最適なUltralytics YOLO11のデプロイメント形式を選択する方法 | TensorRT | OpenVINO 🚀

このガイドでは、YOLO11のデプロイオプションと、プロジェクトに適したオプションを選択するために考慮すべき重要な要素について説明します。

YOLO11モデルに適したデプロイオプションを選択する方法

YOLO11モデルをデプロイする際、適切なエクスポート形式を選択することが非常に重要です。Ultralytics YOLO11 Modes documentationで概説されているように、model.export()関数を使用すると、トレーニング済みのモデルを、多様な環境とパフォーマンス要件に合わせて調整されたさまざまな形式に変換できます。

理想的な形式は、モデルの意図する運用コンテキストによって異なり、速度、ハードウェアの制約、統合の容易さのバランスを取る必要があります。次のセクションでは、各エクスポートオプションを詳しく見て、それぞれを選択するタイミングを理解します。

YOLO11のデプロイメントオプション

さまざまなYOLO11のデプロイメントオプションについて説明します。エクスポートプロセスの詳細な説明については、Ultralyticsドキュメントのエクスポートに関するページをご覧ください。

PyTorch

PyTorch は、深層学習および人工知能のアプリケーションで広く使用されているオープンソースの機械学習ライブラリです。高度な柔軟性と速度を備えているため、研究者や開発者の間で人気があります。

  • パフォーマンスベンチマーク: PyTorchはその使いやすさと柔軟性で知られていますが、より専門的で最適化された他のフレームワークと比較すると、生のパフォーマンスではわずかなトレードオフが生じる可能性があります。
  • 互換性と統合: pythonのさまざまなデータサイエンスおよび機械学習ライブラリとの優れた互換性を提供します。
  • コミュニティサポートとエコシステム: 学習やトラブルシューティングのための豊富なリソースがあり、非常に活気のあるコミュニティの1つです。
  • ケーススタディ: 研究プロトタイプで一般的に使用されており、多くの学術論文がPyTorchでデプロイされたモデルを参照しています。
  • メンテナンスとアップデート: 新機能のアクティブな開発とサポートによる定期的なアップデート。
  • セキュリティに関する考慮事項: セキュリティ問題に対する定期的なパッチがありますが、セキュリティは主にデプロイされる全体的な環境に依存します。
  • ハードウェアアクセラレーション: モデルのトレーニングと推論を高速化するために不可欠なGPUアクセラレーション用のCUDAをサポートします。

TorchScript

TorchScriptは、モデルをC++ランタイム環境で実行できるようにエクスポートすることで、PyTorchの機能を拡張します。これにより、pythonが利用できない本番環境に適しています。

  • パフォーマンスベンチマーク: 特に本番環境において、ネイティブのPyTorchよりもパフォーマンスが向上する可能性があります。
  • 互換性と統合: PyTorchからC++の本番環境へのシームレスな移行のために設計されていますが、一部の高度な機能は完全には移行できない場合があります。
  • コミュニティサポートとエコシステム: PyTorchの大規模なコミュニティの恩恵を受けていますが、専門の開発者の範囲は狭くなっています。
  • ケーススタディ: pythonのパフォーマンスオーバーヘッドがボトルネックとなる産業環境で広く使用されています。
  • メンテナンスとアップデート: 一貫したアップデートでPyTorchとともにメンテナンスされます。
  • セキュリティに関する考慮事項: 完全なpythonインストールなしで環境でモデルを実行できるようにすることで、セキュリティが向上します。
  • ハードウェアアクセラレーション: PyTorchのCUDAサポートを継承し、効率的なGPU利用を保証します。

ONNX

Open Neural Network Exchange(ONNX)は、さまざまなプラットフォームへのデプロイ時に重要な、異なるフレームワーク間でのモデルの相互運用性を可能にする形式です。

  • パフォーマンスベンチマーク: ONNXモデルは、デプロイ先の特定のランタイムに応じて、パフォーマンスが変動する可能性があります。
  • 互換性と統合: フレームワークに依存しない性質により、複数のプラットフォームおよびハードウェア間で高い相互運用性があります。
  • コミュニティサポートとエコシステム: 多くの組織によってサポートされており、広範なエコシステムと最適化のためのさまざまなツールにつながっています。
  • ケーススタディ: 異なる機械学習フレームワーク間でモデルを移動するためによく使用され、その柔軟性を示しています。
  • メンテナンスとアップデート: オープンスタンダードとして、ONNXは新しいオペレーションとモデルをサポートするために定期的に更新されます。
  • セキュリティに関する考慮事項: 他のクロスプラットフォームツールと同様に、変換およびデプロイメントパイプラインにおける安全なプラクティスを確保することが不可欠です。
  • ハードウェアアクセラレーション: ONNX Runtimeを使用すると、モデルはさまざまなハードウェア最適化を活用できます。

OpenVINO

OpenVINOは、Intelハードウェア全体への深層学習モデルのデプロイを容易にし、パフォーマンスと速度を向上させるように設計されたIntelツールキットです。

  • パフォーマンスベンチマーク: Intel CPU、GPU、およびVPU向けに特別に最適化されており、互換性のあるハードウェアで大幅なパフォーマンス向上を提供します。
  • 互換性と統合: Intelのエコシステム内で最適に動作しますが、他のさまざまなプラットフォームもサポートしています。
  • コミュニティサポートとエコシステム: コンピュータビジョンドメインで特に強固なユーザーベースを持つIntelによってサポートされています。
  • ケーススタディ: Intelハードウェアが普及しているIoTおよびエッジコンピューティングシナリオでよく利用されます。
  • メンテナンスとアップデート: Intelは、最新の深層学習モデルとIntelハードウェアをサポートするために、OpenVINOを定期的に更新します。
  • セキュリティに関する考慮事項: 機密性の高いアプリケーションでのデプロイメントに適した堅牢なセキュリティ機能を提供します。
  • ハードウェアアクセラレーション: Intelハードウェアでのアクセラレーション向けに調整されており、専用の命令セットとハードウェア機能を活用します。

OpenVINOを使用したデプロイメントの詳細については、Ultralytics統合ドキュメント(Intel OpenVINOエクスポート)を参照してください。

TensorRT

TensorRTは、NVIDIAのハイパフォーマンスな深層学習推論オプティマイザーおよびランタイムであり、速度と効率を必要とするアプリケーションに最適です。

  • パフォーマンスベンチマーク: 高速推論をサポートし、NVIDIA GPUで最高レベルのパフォーマンスを提供します。
  • 互換性と統合: NVIDIAハードウェアに最適で、この環境外でのサポートは限られています。
  • コミュニティサポートとエコシステム: NVIDIAの開発者フォーラムやドキュメントを通じて、強力なサポートネットワークがあります。
  • ケーススタディ: ビデオや画像データに対するリアルタイム推論を必要とする業界で広く採用されています。
  • メンテナンスとアップデート: NVIDIAは、パフォーマンスを向上させ、新しいGPUアーキテクチャをサポートするために、頻繁なアップデートでTensorRTをメンテナンスします。
  • セキュリティに関する考慮事項: 多くのNVIDIA製品と同様に、セキュリティを重視していますが、具体的な内容はデプロイメント環境によって異なります。
  • ハードウェアアクセラレーション: NVIDIA GPU専用に設計されており、高度な最適化とアクセラレーションを提供します。

TensorRT のデプロイに関する詳細については、TensorRT 統合ガイドをご確認ください。

CoreML

CoreML は、Apple の機械学習フレームワークであり、iOS、macOS、watchOS、tvOS を含む Apple エコシステムでのデバイス上でのパフォーマンスに最適化されています。

  • パフォーマンスベンチマーク: バッテリー消費を最小限に抑えながら、Appleハードウェアでのオンデバイスパフォーマンス向けに最適化されています。
  • 互換性と統合: Appleのエコシステム専用であり、iOSおよびmacOSアプリケーション向けの合理化されたワークフローを提供します。
  • コミュニティサポートとエコシステム: Appleからの強力なサポートと、広範なドキュメントやツールを備えた熱心な開発者コミュニティがあります。
  • ケーススタディ: Apple製品のオンデバイス機械学習機能を必要とするアプリケーションで一般的に使用されます。
  • メンテナンスとアップデート: 最新の機械学習の進歩とAppleハードウェアをサポートするために、Appleによって定期的に更新されます。
  • セキュリティに関する考慮事項: Appleのユーザープライバシーとデータセキュリティへの注力から恩恵を受けます。
  • ハードウェアアクセラレーション: 高速化された機械学習タスクのために、AppleのニューラルエンジンとGPUを最大限に活用します。

TF SavedModel

TF SavedModelは、機械学習モデルを保存および提供するためのTensorFlowの形式であり、特にスケーラブルなサーバー環境に適しています。

  • パフォーマンスベンチマーク: 特にTensorFlow Servingと組み合わせて使用​​すると、サーバー環境でスケーラブルなパフォーマンスを提供します。
  • 互換性と統合: クラウドやエンタープライズサーバーのデプロイメントを含む、TensorFlowのエコシステム全体で幅広い互換性があります。
  • コミュニティサポートとエコシステム: TensorFlowの人気により、大規模なコミュニティサポートがあり、デプロイメントと最適化のための膨大なツールが用意されています。
  • ケーススタディ: 大規模な深層学習モデルを提供するための本番環境で広く使用されています。
  • メンテナンスとアップデート: GoogleおよびTensorFlowコミュニティによってサポートされており、定期的なアップデートと新機能が保証されています。
  • セキュリティに関する考慮事項: TensorFlow Servingを使用したデプロイメントには、エンタープライズグレードのアプリケーション向けの堅牢なセキュリティ機能が含まれています。
  • ハードウェアアクセラレーション: TensorFlowのバックエンドを通じて、さまざまなハードウェアアクセラレーションをサポートします。

TF GraphDef

TF GraphDefは、モデルをグラフとして表現するTensorFlowの形式であり、静的な計算グラフが必要な環境で役立ちます。

  • パフォーマンスベンチマーク: 静的計算グラフに対して安定したパフォーマンスを提供し、一貫性と信頼性に重点を置いています。
  • 互換性と統合: TensorFlowのインフラストラクチャ内で簡単に統合できますが、SavedModelと比較すると柔軟性は低くなります。
  • コミュニティサポートとエコシステム: TensorFlowのエコシステムからの優れたサポートがあり、静的グラフの最適化に利用できる多くのリソースがあります。
  • ケーススタディ: 特定の組み込みシステムなど、静的なグラフが必要となるシナリオで役立ちます。
  • メンテナンスとアップデート: TensorFlowのコアアップデートとともに定期的なアップデート。
  • セキュリティに関する考慮事項: TensorFlowの確立されたセキュリティプラクティスにより、安全なデプロイメントを保証します。
  • ハードウェアアクセラレーション: SavedModelほど柔軟ではありませんが、TensorFlowのハードウェアアクセラレーションオプションを利用できます。

TF GraphDefの詳細については、TF GraphDef統合ガイドをご覧ください。

TF Lite

TF Liteは、モバイルおよび組み込みデバイスの機械学習向けのTensorFlowソリューションであり、デバイス上での推論のための軽量ライブラリを提供します。

  • パフォーマンスベンチマーク: モバイルおよび組み込みデバイスでの速度と効率のために設計されています。
  • 互換性と統合: 軽量であるため、幅広いデバイスで使用できます。
  • コミュニティサポートとエコシステム: Googleに支えられており、堅牢なコミュニティと開発者向けの豊富なリソースがあります。
  • ケーススタディ: 最小限のフットプリントでオンデバイス推論を必要とするモバイルアプリケーションで人気があります。
  • メンテナンスとアップデート: モバイルデバイス向けの最新機能と最適化を含むように定期的に更新されます。
  • セキュリティに関する考慮事項: エンドユーザーデバイスでモデルを実行するための安全な環境を提供します。
  • ハードウェアアクセラレーション: GPUやDSPを含む、さまざまなハードウェアアクセラレーションオプションをサポートしています。

TF Edge TPU

TF Edge TPUは、GoogleのEdge TPUハードウェア上で高速かつ効率的なコンピューティングを行うために設計されており、リアルタイム処理を必要とするIoTデバイスに最適です。

  • パフォーマンスベンチマーク: GoogleのEdge TPUハードウェアでの高速かつ効率的なコンピューティングに特化して最適化されています。
  • 互換性と統合: Edge TPUデバイス上のTensorFlow Liteモデルでのみ動作します。
  • コミュニティサポートとエコシステム: Googleおよびサードパーティの開発者によって提供されるリソースによるサポートが拡大しています。
  • ケーススタディ: 低レイテンシーでリアルタイム処理を必要とするIoTデバイスおよびアプリケーションで使用されます。
  • メンテナンスとアップデート: 新しいEdge TPUハードウェアリリースの機能を活用するために継続的に改善されています。
  • セキュリティに関する考慮事項: IoTおよびエッジデバイス向けに、Googleの堅牢なセキュリティと統合されています。
  • ハードウェアアクセラレーション: Google Coralデバイスを最大限に活用するためにカスタム設計されています。

TF.js

TensorFlow.js (TF.js) は、機械学習機能をブラウザに直接導入するライブラリであり、Web 開発者やユーザーに新たな可能性を提供します。バックエンドインフラストラクチャを必要とせずに、Web アプリケーションに機械学習モデルを統合できます。

  • パフォーマンスベンチマーク: クライアントデバイスに応じて、妥当なパフォーマンスでブラウザで直接機械学習を可能にします。
  • 互換性と統合: Webテクノロジーとの高い互換性があり、Webアプリケーションへの簡単な統合が可能です。
  • コミュニティサポートとエコシステム: WebおよびNode.js開発者のコミュニティからのサポートがあり、ブラウザでのMLモデルのデプロイメントのためのさまざまなツールがあります。
  • ケーススタディ: サーバー側の処理を必要とせずに、クライアント側の機械学習の恩恵を受けるインタラクティブなWebアプリケーションに最適です。
  • メンテナンスとアップデート: TensorFlowチームによってメンテナンスされ、オープンソースコミュニティからの貢献があります。
  • セキュリティに関する考慮事項: ブラウザの安全なコンテキスト内で実行され、ウェブプラットフォームのセキュリティモデルを利用します。
  • ハードウェアアクセラレーション: WebGLのようなハードウェアアクセラレーションにアクセスするWebベースのAPIでパフォーマンスを向上させることができます。

PaddlePaddle

PaddlePaddleは、Baiduによって開発されたオープンソースの深層学習フレームワークです。研究者にとって効率的であり、開発者にとって使いやすいように設計されています。特に中国で人気があり、中国語処理に特化したサポートを提供しています。

  • パフォーマンスベンチマーク: 使いやすさとスケーラビリティに重点を置いて、競争力のあるパフォーマンスを提供します。
  • 互換性と統合: Baiduのエコシステム内で十分に統合されており、幅広いアプリケーションをサポートしています。
  • コミュニティサポートとエコシステム: グローバルに見るとコミュニティは小さいですが、特に中国で急速に成長しています。
  • ケーススタディ: 中国市場や、他の主要フレームワークの代替を探している開発者によく使用されます。
  • メンテナンスとアップデート: 中国語のAIアプリケーションとサービスを提供することに重点を置いて定期的に更新されます。
  • セキュリティに関する考慮事項: 中国のデータガバナンス基準に対応し、データプライバシーとセキュリティを重視しています。
  • ハードウェアアクセラレーション: Baidu独自のKunlunチップを含む、さまざまなハードウェアアクセラレーションをサポートします。

MNN

MNNは、非常に効率的で軽量な深層学習フレームワークです。深層学習モデルの推論とトレーニングをサポートし、オンデバイスでの推論とトレーニングにおいて業界をリードするパフォーマンスを発揮します。さらに、MNNはIoTなどの組み込みデバイスでも使用されています。

  • パフォーマンスベンチマーク:ARMシステム向けに最適化されており、モバイルデバイスで高いパフォーマンスを発揮します。
  • 互換性と統合: モバイルおよび組み込みARMシステムとX86-64 CPUアーキテクチャで適切に動作します。
  • コミュニティサポートとエコシステム: モバイルおよび組み込み機械学習コミュニティによってサポートされています。
  • 事例研究: モバイルシステムでの効率的なパフォーマンスを必要とするアプリケーションに最適です。
  • メンテナンスとアップデート: モバイルデバイスで高いパフォーマンスを維持するために、定期的にメンテナンスされています。
  • セキュリティに関する考慮事項: データをローカルに保持することで、デバイス上のセキュリティ上の利点を提供します。
  • ハードウェアアクセラレーション: 効率を最大化するために、ARM CPU および GPU 向けに最適化されています。

NCNN

NCNNは、モバイルプラットフォーム向けに最適化された高性能なニューラルネットワーク推論フレームワークです。軽量かつ効率的な点が特徴で、リソースが限られたモバイルおよび組み込みデバイスに特に適しています。

  • パフォーマンスベンチマーク: モバイルプラットフォーム向けに高度に最適化されており、ARMベースのデバイスで効率的な推論を提供します。
  • 互換性と統合: ARMアーキテクチャを搭載した携帯電話や組み込みシステムでのアプリケーションに適しています。
  • コミュニティサポートとエコシステム: モバイルおよび組み込みMLアプリケーションに焦点を当てた、ニッチながらも活発なコミュニティによってサポートされています。
  • ケーススタディ: 効率と速度がAndroidやその他のARMベースのシステムで重要なモバイルアプリケーションに最適です。
  • メンテナンスとアップデート: さまざまなARMデバイスで高いパフォーマンスを維持するために継続的に改善されています。
  • セキュリティに関する考慮事項: デバイス上でのローカル実行に焦点を当て、デバイス上処理の固有のセキュリティを活用します。
  • ハードウェアアクセラレーション: ARM CPUおよびGPU向けに調整されており、これらのアーキテクチャに特化した最適化が施されています。

YOLO11 のデプロイオプションの比較分析

次の表は、YOLO11モデルで利用可能なさまざまなデプロイメントオプションのスナップショットを提供し、いくつかの重要な基準に基づいて、プロジェクトのニーズに最適なものを評価するのに役立ちます。各デプロイメントオプションの形式の詳細については、エクスポート形式に関するUltralyticsドキュメントページを参照してください。

デプロイメントオプション パフォーマンスベンチマーク 互換性と統合 コミュニティサポートとエコシステム ケーススタディ メンテナンスとアップデート セキュリティに関する考慮事項 ハードウェアアクセラレーション
PyTorch 柔軟性は高いが、生のパフォーマンスは低下する可能性がある Pythonライブラリとの相性が抜群 豊富なリソースとコミュニティ 研究とプロトタイプ 定期的かつ活発な開発 デプロイ環境に依存します。 GPUアクセラレーションのためのCUDAサポート
TorchScript PyTorchよりも本番環境に適しています PyTorchからC++へのスムーズな移行 PyTorchよりも特化しているが、範囲は狭い pythonがボトルネックとなっている業界 PyTorchによる継続的なアップデート 完全なpythonなしでセキュリティを改善 PyTorchからCUDAサポートを継承
ONNX 実行時に応じて変化する変数 さまざまなフレームワークで高い性能 多くの組織によってサポートされている幅広いエコシステム MLフレームワーク全体の柔軟性 新しいオペレーションの定期的なアップデート 安全な変換とデプロイメントの実践を徹底してください。 様々なハードウェア最適化
OpenVINO Intelハードウェア向けに最適化 Intelエコシステム内で最高 コンピュータビジョンの分野での確かな知識 IntelハードウェアによるIoTとエッジ Intelハードウェアの定期的なアップデート 機密性の高いアプリケーション向けの堅牢な機能 Intel ハードウェア向けに調整
TensorRT NVIDIA GPUにおけるトップレベル NVIDIAハードウェアに最適 NVIDIA を通じた強力なネットワーク リアルタイムビデオおよび画像推論 新しいGPUの頻繁なアップデート セキュリティの重視 NVIDIA GPU向けに設計
CoreML オンデバイスのAppleハードウェア向けに最適化 Appleエコシステム専用 Appleと開発者による強力なサポート Apple製品のオンデバイスML Appleによる定期的なアップデート プライバシーとセキュリティに焦点を当てる Apple Neural EngineとGPU
TF SavedModel サーバー環境でのスケーラビリティ TensorFlowエコシステムにおける幅広い互換性 TensorFlowの人気による大規模なサポート 大規模なモデルの提供 Googleおよびコミュニティによる定期的なアップデート エンタープライズ向けの堅牢な機能 様々なハードウェアアクセラレーション
TF GraphDef 静的計算グラフに対して安定 TensorFlow インフラストラクチャとうまく統合 静的グラフを最適化するためのリソース 静的グラフを必要とするシナリオ TensorFlowコアと並行して更新 確立されたTensorFlowセキュリティプラクティス TensorFlowの高速化オプション
TF Lite モバイル/組み込みでの速度と効率 幅広いデバイスサポート 堅牢なコミュニティ、Googleによる支援 フットプリントを最小限に抑えたモバイルアプリケーション モバイル向けの最新機能 エンドユーザーデバイス上の安全な環境 GPUやDSPなど
TF Edge TPU GoogleのEdge TPUハードウェア向けに最適化 Edge TPUデバイス専用 Google およびサードパーティのリソースとの連携 リアルタイム処理を必要とするIoTデバイス 新しいEdge TPUハードウェアの改善 Googleの堅牢なIoTセキュリティ Google Coral 向けにカスタム設計
TF.js ブラウザでの妥当なパフォーマンス Webテクノロジーで高い性能 ウェブおよび Node.js 開発者サポート インタラクティブな Web アプリケーション TensorFlowチームとコミュニティの貢献 ウェブプラットフォームのセキュリティモデル WebGLおよびその他のAPIで強化
PaddlePaddle 競争力があり、使いやすく、スケーラブル Baiduエコシステム、幅広いアプリケーションをサポート 急速な成長、特に中国で 中国市場と言語処理 中国のAIアプリケーションに焦点を当てる データのプライバシーとセキュリティを重視 BaiduのKunlunチップを含む
MNN モバイルデバイス向けハイパフォーマンス。 モバイルおよび組み込みARMシステムとX86-64 CPU モバイル/組み込みMLコミュニティ モバイルシステムの効率 モバイルデバイス上でのハイパフォーマンスメンテナンス オンデバイスのセキュリティ上の利点 ARM CPUとGPUの最適化
NCNN モバイルARMベースのデバイス向けに最適化 モバイルおよび組み込みARMシステム ニッチだが活発なモバイル/組み込みMLコミュニティ AndroidおよびARMシステムの効率 ARM上でのハイパフォーマンスメンテナンス オンデバイスのセキュリティ上の利点 ARM CPUとGPUの最適化

この比較分析は、概要レベルの情報を提供します。デプロイメントでは、プロジェクトの特定の要件と制約を考慮し、各オプションで利用可能な詳細なドキュメントとリソースを参照することが不可欠です。

コミュニティとサポート

YOLO11を使い始めるにあたり、役立つコミュニティとサポートがあれば、大きな影響を与えることができます。関心を共有する他の人とつながり、必要な支援を受ける方法を以下に示します。

より広範なコミュニティとの連携

  • GitHub Discussions: GitHub上のYOLO11リポジトリには、「Discussions」セクションがあり、質問、問題の報告、改善の提案を行うことができます。
  • Ultralytics Discordサーバー: UltralyticsにはDiscordサーバーがあり、他のユーザーや開発者と交流できます。

公式ドキュメントとリソース

  • Ultralytics YOLO11 Docs: 公式ドキュメントには、YOLO11の包括的な概要と、インストール、使用法、トラブルシューティングに関するガイドが記載されています。

これらのリソースは、課題に取り組み、YOLO11 コミュニティの最新トレンドとベストプラクティスに関する最新情報を入手するのに役立ちます。

結論

このガイドでは、YOLO11のさまざまな展開オプションについて説明しました。選択を行う際に考慮すべき重要な要素についても説明しました。これらのオプションを使用すると、さまざまな環境やパフォーマンス要件に合わせてモデルをカスタマイズできるため、実際のアプリケーションに適しています。

YOLO11とUltralyticsコミュニティは、貴重な情報源となることを忘れないでください。他の開発者や専門家と繋がり、通常のドキュメントでは見つからない独自のヒントや解決策を学びましょう。知識を求め続け、新しいアイデアを探求し、あなたの経験を共有してください。

デプロイをお楽しみください!

よくある質問

さまざまなハードウェアプラットフォームでのYOLO11で利用可能なデプロイオプションは何ですか?

Ultralytics YOLO11は、特定の環境やハードウェアプラットフォーム向けに設計された、さまざまなデプロイメント形式をサポートしています。主な形式は以下の通りです。

  • 優れたPython統合を備えた研究開発およびプロトタイピング用のPyTorch
  • Python が利用できない本番環境向けのTorchScript
  • クロスプラットフォームの互換性とハードウェアアクセラレーションのためのONNX
  • Intelハードウェアでの最適化されたパフォーマンスのためのOpenVINO
  • TensorRT: NVIDIA GPU上での高速推論用。

各フォーマットには独自の利点があります。詳細なチュートリアルについては、エクスポートプロセスのドキュメントをご覧ください。

Intel CPUでYOLO11モデルの推論速度を向上させるにはどうすればよいですか?

Intel CPUでの推論速度を向上させるには、IntelのOpenVINOツールキットを使用してYOLO11モデルをデプロイできます。OpenVINOは、Intelハードウェアを効率的に活用するためにモデルを最適化することで、パフォーマンスを大幅に向上させます。

  1. YOLO11 モデルを OpenVINO 形式に変換するには、以下を使用します。 model.export() 関数。
  2. Intel OpenVINOエクスポートのドキュメントにある詳細なセットアップガイドに従ってください。

より深い洞察については、ブログ記事をご覧ください。

YOLO11モデルをモバイルデバイスにデプロイできますか?

はい、YOLO11モデルは、AndroidとiOSの両方のプラットフォームでTensorFlow Lite(TF Lite)を使用してモバイルデバイスにデプロイできます。TF Liteは、モバイルおよび組み込みデバイス向けに設計されており、効率的なオンデバイス推論を提供します。

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

モバイルへのモデルのデプロイに関する詳細については、TF Lite統合ガイドを参照してください。

YOLO11モデルのデプロイ形式を選択する際に、どのような要素を考慮する必要がありますか?

YOLO11のデプロイメント形式を選択する際には、以下の要素を考慮してください。

  • パフォーマンス: TensorRTなどの一部の形式は、NVIDIA GPUで非常に優れた速度を提供し、OpenVINOはIntelハードウェア向けに最適化されています。
  • 互換性: ONNXは、さまざまなプラットフォーム間で幅広い互換性を提供します。
  • 統合の容易さ: CoreMLやTF Liteなどの形式は、それぞれiOSやAndroidなどの特定の ecosystem に合わせて調整されています。
  • コミュニティサポート: PyTorchやTensorFlowのような形式は、広範なコミュニティリソースとサポートを持っています。

比較分析については、エクスポート形式のドキュメントを参照してください。

YOLO11モデルをWebアプリケーションにデプロイするにはどうすればよいですか?

WebアプリケーションにYOLO11モデルをデプロイするには、TensorFlow.js(TF.js)を使用できます。これにより、ブラウザで直接機械学習モデルを実行できます。このアプローチにより、バックエンドインフラストラクチャが不要になり、リアルタイムパフォーマンスが実現します。

  1. YOLO11 モデルを TF.js 形式にエクスポートします。
  2. エクスポートされたモデルを Web アプリケーションに統合します。

詳しい手順については、TensorFlow.jsの統合に関するガイドを参照してください。



📅 1年前に作成 ✏️ 3ヶ月前に更新

コメント