コンテンツにスキップ

Intel OpenVINO Export

OpenVINOエコシステム

このガイドでは、最大3倍のCPU高速化を実現するOpenVINO形式へのYOLO11モデルのエクスポート、およびIntel GPUNPUハードウェアでのYOLO推論の高速化について説明します。

OpenVINO(Open Visual Inference & Neural Network Optimization toolkitの略)は、AI推論モデルを最適化し、デプロイするための包括的なツールキットです。名前にはVisualとありますが、OpenVINOは言語、オーディオ、時系列など、さまざまな追加タスクもサポートしています。



見る: Ultralytics YOLO11をIntel OpenVINO形式にエクスポートして推論を高速化する方法 🚀

使用例

YOLO11nモデルをOpenVINO形式にエクスポートし、エクスポートされたモデルで推論を実行します。

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model
model.export(format="openvino")  # creates 'yolo11n_openvino_model/'

# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")

# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")

# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'

# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'

# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg' device="intel:gpu"

エクスポート引数

引数種類デフォルト説明
formatstr'openvino'エクスポートされたモデルのターゲット形式。さまざまなデプロイメント環境との互換性を定義します。
imgszint または tuple640モデル入力に必要な画像サイズ。正方形の画像の場合は整数、タプルの場合は (height, width) 特定の寸法の場合。
halfboolFalseFP16(半精度)量子化を有効にし、モデルサイズを縮小し、サポートされているハードウェアでの推論を高速化する可能性があります。
int8boolFalseINT8量子化を有効にすると、モデルがさらに圧縮され、精度の低下を最小限に抑えながら推論が高速化されます。主にエッジデバイス向けです。
dynamicboolFalse動的な入力サイズを許可し、さまざまな画像寸法を処理する際の柔軟性を高めます。
nmsboolFalseNon-Maximum Suppression (NMS) を追加しました。これは、正確で効率的な検出後処理に不可欠です。
batchint1エクスポートされたモデルのバッチ推論サイズ、またはエクスポートされたモデルが同時に処理する画像の最大数を指定します。 predict モードを参照してください。
datastr'coco8.yaml'へのパス データセット 構成ファイル(デフォルト: coco8.yaml)は、量子化に不可欠です。
fractionfloat1.0INT8量子化のキャリブレーションに使用するデータセットの割合を指定します。リソースが限られている場合や実験を行う場合に役立つ、データセットのサブセットでのキャリブレーションが可能です。INT8を有効にして指定しない場合、データセット全体が使用されます。

エクスポートプロセスの詳細については、エクスポートに関するUltralyticsドキュメントページをご覧ください。

警告

OpenVINO™はほとんどのIntel®プロセッサと互換性がありますが、最適なパフォーマンスを確保するには:

  1. OpenVINO™ のサポートを確認するIntel互換性リストを使用して、お使いのインテル® チップが OpenVINO™ で正式にサポートされているかどうかを確認します。

  2. アクセラレーターの特定Intelハードウェアガイドを参照して、お使いのプロセッサーに統合NPU(ニューラル・プロセッシング・ユニット)またはGPU (統合GPU)が搭載されているかどうかを判断します。

  3. 最新のドライバをインストールする お使いのチップが NPU またはGPU をサポートしているにもかかわらず、OpenVINO™ がそれを検出しない場合、関連するドライバをインストールまたは更新する必要があるかもしれません。ドライバのインストール手順に従って、フルアクセラレーションを有効にしてください。

これらの3つのステップに従うことで、OpenVINO™がIntel®ハードウェア上で最適に動作することを保証できます。

OpenVINO の利点

  1. パフォーマンス: OpenVINOは、Intel CPU、統合およびディスクリートGPU、FPGAの能力を活用して、高性能な推論を提供します。
  2. 異種実行のサポート: OpenVINOは、一度記述してサポートされているすべてのIntelハードウェア(CPU、GPU、FPGA、VPUなど)にデプロイするためのAPIを提供します。
  3. Model Optimizer: OpenVINOは、PyTorch、TensorFlow、TensorFlow Lite、Keras、ONNX、PaddlePaddle、Caffeなどの一般的な深層学習フレームワークからモデルをインポート、変換、最適化するModel Optimizerを提供します。
  4. 使いやすさ: ツールキットには、ツールキットのさまざまな側面を教える80以上のチュートリアルノートブックYOLOv8の最適化を含む)が付属しています。

OpenVINOエクスポート構造

モデルをOpenVINO形式にエクスポートすると、次のものが含まれるディレクトリが作成されます。

  1. XMLファイル: ネットワークトポロジを記述します。
  2. BINファイル: 重みとバイナリデータのバイアスが含まれています。
  3. マッピングファイル: 元のモデル出力tensorからOpenVINO tensor名へのマッピングを保持します。

これらのファイルを使用して、OpenVINO Inference Engineで推論を実行できます。

デプロイメントでOpenVINOエクスポートを使用

モデルがOpenVINO形式に正常にエクスポートされると、推論を実行するための主なオプションが2つあります。

  1. 以下を使用します ultralytics OpenVINO Runtimeをラップする高レベルAPIを提供するパッケージ。

  2. ネイティブの openvino 推論動作をより高度にまたはカスタマイズして制御するためのパッケージ。

Ultralyticsでの推論

Ultralytics パッケージを使用すると、エクスポートされた OpenVINO モデルを使用して、predict メソッドで簡単に推論を実行できます。ターゲットデバイス(例: intel:gpu, intel:npu, intel:cpu) は、device 引数を使用して行います。

from ultralytics import YOLO

# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")  # the path of your exported OpenVINO model
# Run inference with the exported model
ov_model.predict(device="intel:gpu")  # specify the device you want to run inference on

このアプローチは、推論パイプラインを完全に制御する必要がない場合に、迅速なプロトタイピングまたはデプロイに最適です。

OpenVINO Runtimeでの推論

OpenVINO Runtimeは、サポートされているすべてのIntelハードウェアで推論を行うための統一されたAPIを提供します。また、Intelハードウェア全体での負荷分散や非同期実行などの高度な機能も提供します。推論の実行に関する詳細については、YOLO11 notebooksを参照してください。

Runtimeでモデルを正しくセットアップして使用するには、XMLファイルとBINファイル、および入力サイズ、正規化のスケールファクターなど、アプリケーション固有の設定が必要になることに注意してください。

デプロイメントアプリケーションでは、通常、次の手順を実行します。

  1. OpenVINOを初期化(作成による) core = Core().
  2. を使用してモデルをロードします。 core.read_model() メソッド。
  3. を使用してモデルをコンパイルします core.compile_model() 関数。
  4. 入力(画像、テキスト、オーディオなど)を準備します。
  5. を使用して推論を実行します compiled_model(input_data).

詳細な手順とコードスニペットについては、OpenVINOドキュメントまたはAPIチュートリアルを参照してください。

OpenVINO YOLO11ベンチマーク

Ultralytics チームは、さまざまなモデル形式と精度で YOLO11 のベンチマークを行い、OpenVINO と互換性のあるさまざまな Intel デバイスでの速度と精度を評価しました。

以下のベンチマーク結果は参考用であり、システムの正確なハードウェアおよびソフトウェア構成、ベンチマーク実行時のシステムの現在のワークロードによって異なる場合があります。

すべてのベンチマークは以下を使用して実行されます。 openvino pythonパッケージのバージョン 2025.1.0.

Intel Core CPU

Intel® Core® シリーズは、Intel製高性能プロセッサのシリーズです。Core i3(エントリーレベル)、Core i5(ミッドレンジ)、Core i7(ハイエンド)、Core i9(エクストリームパフォーマンス)が含まれます。各シリーズは、日常的なタスクから要求の厳しいプロフェッショナルなワークロードまで、さまざまなコンピューティングのニーズと予算に対応します。新しい世代ごとに、パフォーマンス、エネルギー効率、機能が改善されています。

以下のベンチマークは、FP32精度で第12世代Intel® Core® i9-12900KS CPU上で実行されています。

コア CPU ベンチマーク
詳細なベンチマーク結果
モデル形式ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorch5.40.507121.00
YOLO11nTorchScript10.50.507721.39
YOLO11nONNX10.20.507715.55
YOLO11nOpenVINO10.40.507711.49
YOLO11sPyTorch18.40.577043.16
YOLO11sTorchScript36.60.578150.06
YOLO11sONNX36.30.578131.53
YOLO11sOpenVINO36.40.578130.82
YOLO11mPyTorch38.80.6257110.60
YOLO11mTorchScript77.30.6306128.09
YOLO11mONNX76.90.630676.06
YOLO11mOpenVINO77.10.630679.38
YOLO11lPyTorch49.00.6367150.38
YOLO11lTorchScript97.70.6408172.57
YOLO11lONNX97.00.6408108.91
YOLO11lOpenVINO97.30.6408102.30
YOLO11xPyTorch109.30.6989272.72
YOLO11xTorchScript218.10.6900320.86
YOLO11xONNX217.50.6900196.20
YOLO11xOpenVINO217.80.6900195.32

Intel® Core™ Ultra

Intel® Core™ Ultra™シリーズは、ゲーマーやクリエイターからAIを活用する専門家まで、現代の進化するユーザーの要求に応えるように設計された、高性能コンピューティングにおける新しいベンチマークを表しています。この次世代ラインナップは、従来のCPUシリーズ以上のものです。強力なCPUコア、統合された高性能GPU機能、および専用のニューラルプロセッシングユニット(NPU)を1つのチップに組み合わせ、多様で集中的なコンピューティングワークロードに対応する統合ソリューションを提供します。

Intel® Core Ultra™アーキテクチャの中核となるのは、従来の処理タスク、GPUアクセラレーションされたワークロード、およびAI駆動のオペレーション全体で卓越したパフォーマンスを可能にするハイブリッド設計です。NPUの搭載により、オンデバイスAI推論が強化され、幅広いアプリケーションでより高速で効率的な機械学習とデータ処理が可能になります。

Core Ultra™ファミリーには、さまざまなパフォーマンスニーズに合わせて調整されたさまざまなモデルが含まれており、エネルギー効率の高い設計から、「H」の指定でマークされた高出力バリアントまで、さまざまなオプションがあります。これらは、本格的なコンピューティングパワーを必要とするラップトップやコンパクトなフォームファクターに最適です。ラインナップ全体で、ユーザーはCPU、GPU、およびNPUの統合による相乗効果の恩恵を受け、卓越した効率、応答性、およびマルチタスク機能を実現します。

Intelの継続的なイノベーションの一環として、Core Ultra™シリーズは、将来を見据えたコンピューティングの新たな基準を打ち立てます。複数のモデルが利用可能であり、今後も増える予定であるこのシリーズは、次世代のインテリジェントなAI強化デバイス向けに最先端のソリューションを提供するというIntelのコミットメントを強調しています。

以下のベンチマークは、FP32およびINT8精度でIntel® Core™ Ultra™ 7 258VおよびIntel® Core™ Ultra™ 7 265K上で実行されています。

Intel® Core™ Ultra™ 7 258V

ベンチマーク

Intel Core Ultra GPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.505232.27
YOLO11nOpenVINOFP3210.40.506811.84
YOLO11nOpenVINOINT83.30.496911.24
YOLO11sPyTorchFP3218.40.577692.09
YOLO11sOpenVINOFP3236.40.579714.82
YOLO11sOpenVINOINT89.80.575112.88
YOLO11mPyTorchFP3238.80.6262277.24
YOLO11mOpenVINOFP3277.10.630622.94
YOLO11mOpenVINOINT820.20.612617.85
YOLO11lPyTorchFP3249.00.6361348.97
YOLO11lOpenVINOFP3297.30.636527.34
YOLO11lOpenVINOINT825.70.624220.83
YOLO11xPyTorchFP32109.30.6984666.07
YOLO11xOpenVINOFP32217.80.689039.09
YOLO11xOpenVINOINT855.90.685630.60

Intel Core Ultra CPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.505232.27
YOLO11nOpenVINOFP3210.40.507732.55
YOLO11nOpenVINOINT83.30.498022.98
YOLO11sPyTorchFP3218.40.577692.09
YOLO11sOpenVINOFP3236.40.578298.38
YOLO11sOpenVINOINT89.80.574552.84
YOLO11mPyTorchFP3238.80.6262277.24
YOLO11mOpenVINOFP3277.10.6307275.74
YOLO11mOpenVINOINT820.20.6172132.63
YOLO11lPyTorchFP3249.00.6361348.97
YOLO11lOpenVINOFP3297.30.6361348.97
YOLO11lOpenVINOINT825.70.6240171.36
YOLO11xPyTorchFP32109.30.6984666.07
YOLO11xOpenVINOFP32217.80.6900783.16
YOLO11xOpenVINOINT855.90.6890346.82

Intel Core Ultra NPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.505232.27
YOLO11nOpenVINOFP3210.40.50858.33
YOLO11nOpenVINOINT83.30.50198.91
YOLO11sPyTorchFP3218.40.577692.09
YOLO11sOpenVINOFP3236.40.57889.72
YOLO11sOpenVINOINT89.80.571010.58
YOLO11mPyTorchFP3238.80.6262277.24
YOLO11mOpenVINOFP3277.10.630119.41
YOLO11mOpenVINOINT820.20.612418.26
YOLO11lPyTorchFP3249.00.6361348.97
YOLO11lOpenVINOFP3297.30.636223.70
YOLO11lOpenVINOINT825.70.624021.40
YOLO11xPyTorchFP32109.30.6984666.07
YOLO11xOpenVINOFP32217.80.689243.91
YOLO11xOpenVINOINT855.90.689034.04

Intel® Core™ Ultra™ 7 265K

ベンチマーク

Intel Core Ultra GPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.507216.29
YOLO11nOpenVINOFP3210.40.507913.13
YOLO11nOpenVINOINT83.30.49768.86
YOLO11sPyTorchFP3218.40.577139.61
YOLO11sOpenVINOFP3236.40.580818.26
YOLO11sOpenVINOINT89.80.572613.24
YOLO11mPyTorchFP3238.80.6258100.65
YOLO11mOpenVINOFP3277.10.631043.50
YOLO11mOpenVINOINT820.20.613720.90
YOLO11lPyTorchFP3249.00.6367131.37
YOLO11lOpenVINOFP3297.30.637154.52
YOLO11lOpenVINOINT825.70.622627.36
YOLO11xPyTorchFP32109.30.6990212.45
YOLO11xOpenVINOFP32217.80.6884112.76
YOLO11xOpenVINOINT855.90.690052.06

Intel Core Ultra CPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.507216.29
YOLO11nOpenVINOFP3210.40.507715.04
YOLO11nOpenVINOINT83.30.498011.60
YOLO11sPyTorchFP3218.40.577139.61
YOLO11sOpenVINOFP3236.40.578233.45
YOLO11sOpenVINOINT89.80.574520.64
YOLO11mPyTorchFP3238.80.6258100.65
YOLO11mOpenVINOFP3277.10.630781.15
YOLO11mOpenVINOINT820.20.617244.63
YOLO11lPyTorchFP3249.00.6367131.37
YOLO11lOpenVINOFP3297.30.6409103.77
YOLO11lOpenVINOINT825.70.624058.00
YOLO11xPyTorchFP32109.30.6990212.45
YOLO11xOpenVINOFP32217.80.6900208.37
YOLO11xOpenVINOINT855.90.6897113.04

Intel Core Ultra NPU ベンチマーク

詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.507216.29
YOLO11nOpenVINOFP3210.40.50758.02
YOLO11nOpenVINOINT83.30.36569.28
YOLO11sPyTorchFP3218.40.577139.61
YOLO11sOpenVINOFP3236.40.580113.12
YOLO11sOpenVINOINT89.80.568613.12
YOLO11mPyTorchFP3238.80.6258100.65
YOLO11mOpenVINOFP3277.10.631029.88
YOLO11mOpenVINOINT820.20.611126.32
YOLO11lPyTorchFP3249.00.6367131.37
YOLO11lOpenVINOFP3297.30.635637.08
YOLO11lOpenVINOINT825.70.624530.81
YOLO11xPyTorchFP32109.30.6990212.45
YOLO11xOpenVINOFP32217.80.689468.48
YOLO11xOpenVINOINT855.90.641749.76

Intel® Arc GPU

Intel® Arc™は、ハイパフォーマンスなゲーム、コンテンツ制作、AIワークロード向けに設計された、Intelのディスクリート・グラフィックス・カードのラインです。Arcシリーズは、リアルタイム・レイ・トレーシング、AI拡張グラフィックス、高解像度ゲーミングをサポートする高度なGPUアーキテクチャを特徴としています。パフォーマンスと効率に重点を置き、Intel® Arc™は、ハードウェア・アクセラレーションによるAV1エンコードや最新のグラフィックスAPIのサポートといった独自の機能を提供しながら、他の主要なGPUブランドと競合することを目指しています。

以下のベンチマークは、FP32およびINT8精度でIntel Arc A770およびIntel Arc B580上で実行されています。

Intel Arc A770

Intel Core Ultra CPU ベンチマーク
詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.507216.29
YOLO11nOpenVINOFP3210.40.50736.98
YOLO11nOpenVINOINT83.30.49787.24
YOLO11sPyTorchFP3218.40.577139.61
YOLO11sOpenVINOFP3236.40.57989.41
YOLO11sOpenVINOINT89.80.57518.72
YOLO11mPyTorchFP3238.80.6258100.65
YOLO11mOpenVINOFP3277.10.631114.88
YOLO11mOpenVINOINT820.20.612611.97
YOLO11lPyTorchFP3249.00.6367131.37
YOLO11lOpenVINOFP3297.30.636419.17
YOLO11lOpenVINOINT825.70.624115.75
YOLO11xPyTorchFP32109.30.6990212.45
YOLO11xOpenVINOFP32217.80.688818.13
YOLO11xOpenVINOINT855.90.693018.91

Intel Arc B580

Intel Core Ultra CPU ベンチマーク
詳細なベンチマーク結果
モデル形式適合率ステータスサイズ(MB)メトリクス/mAP50-95(B)推論時間 (ms/im)
YOLO11nPyTorchFP325.40.507216.29
YOLO11nOpenVINOFP3210.40.50724.27
YOLO11nOpenVINOINT83.30.49814.33
YOLO11sPyTorchFP3218.40.577139.61
YOLO11sOpenVINOFP3236.40.57895.04
YOLO11sOpenVINOINT89.80.57464.97
YOLO11mPyTorchFP3238.80.6258100.65
YOLO11mOpenVINOFP3277.10.63066.45
YOLO11mOpenVINOINT820.20.61256.28
YOLO11lPyTorchFP3249.00.6367131.37
YOLO11lOpenVINOFP3297.30.63608.23
YOLO11lOpenVINOINT825.70.62368.49
YOLO11xPyTorchFP32109.30.6990212.45
YOLO11xOpenVINOFP32217.80.688911.10
YOLO11xOpenVINOINT855.90.692410.30

結果の再現

上記のUltralyticsベンチマークをすべてのエクスポート形式で再現するには、次のコードを実行します:

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
results = model.benchmark(data="coco128.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml

ベンチマークの結果は、システムの正確なハードウェアおよびソフトウェア構成、ベンチマーク実行時のシステムの現在のワークロードによって異なる可能性があることに注意してください。最も信頼性の高い結果を得るには、多数の画像を含むデータセット(例:)を使用してください。 data='coco.yaml' (5000の検証画像)。

結論

ベンチマーク結果は、YOLO11モデルをOpenVINO形式にエクスポートすることの利点を明確に示しています。異なるモデルおよびハードウェアプラットフォームにおいて、OpenVINO形式は、同等の精度を維持しながら、推論速度の点で一貫して他の形式よりも優れています。

このベンチマークは、深層学習モデルをデプロイするためのツールとしてのOpenVINOの有効性を強調しています。モデルをOpenVINO形式に変換することで、開発者は大幅なパフォーマンス向上を達成でき、これらのモデルを実際のアプリケーションにデプロイすることが容易になります。

OpenVINOの使用に関する詳細な情報と手順については、OpenVINOの公式ドキュメントを参照してください。

よくある質問

YOLO11モデルをOpenVINO形式にエクスポートするにはどうすればよいですか?

YOLO11モデルをOpenVINO形式にエクスポートすると、CPU速度が大幅に向上し、IntelハードウェアでのGPUおよびNPUアクセラレーションが可能になります。エクスポートするには、以下に示すようにpythonまたはCLIを使用できます。

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model
model.export(format="openvino")  # creates 'yolo11n_openvino_model/'
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'

詳細については、エクスポート形式のドキュメントを参照してください。

YOLO11モデルでOpenVINOを使用する利点は何ですか?

IntelのOpenVINOツールキットをYOLO11モデルで使用すると、いくつかの利点があります。

  1. パフォーマンス: CPU推論で最大3倍の高速化を達成し、Intel GPUおよびNPUを活用して高速化を実現します。
  2. Model Optimizer: PyTorch、TensorFlow、ONNXなどの一般的なフレームワークのモデルを変換、最適化、および実行します。
  3. 使いやすさ: YOLO11用など、ユーザーが使い始めるのに役立つ80以上のチュートリアルノートブックが用意されています。
  4. 異種実行:統合されたAPIを使用して、さまざまなIntelハードウェアにモデルをデプロイします。

詳細なパフォーマンス比較については、ベンチマークセクションをご覧ください。

OpenVINOにエクスポートされたYOLO11モデルを使用して推論を実行するにはどうすればよいですか?

YOLO11nモデルをOpenVINO形式にエクスポートした後、PythonまたはCLIを使用して推論を実行できます。

from ultralytics import YOLO

# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")

# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'

詳細については、predictモードのドキュメントを参照してください。

OpenVINOエクスポートで他のモデルよりもUltralytics YOLO11を選ぶべき理由

Ultralytics YOLO11は、高精度かつ高速なリアルタイム物体検出に最適化されています。特に、OpenVINOと組み合わせることで、YOLO11は以下を提供します。

  • Intel CPUで最大3倍の高速化
  • Intel GPUとNPUへのシームレスなデプロイ
  • さまざまなエクスポート形式で一貫性があり、比較可能な精度

詳細なパフォーマンス分析については、さまざまなハードウェアでの詳細なYOLO11ベンチマークをご覧ください。

PyTorch、ONNX、OpenVINOなどの異なる形式でYOLO11モデルをベンチマークできますか?

はい、PyTorch、TorchScript、ONNX、OpenVINOなど、さまざまな形式でYOLO11モデルのベンチマークを実行できます。選択したデータセットでベンチマークを実行するには、次のコードスニペットを使用してください。

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and [accuracy](https://www.ultralytics.com/glossary/accuracy) on the COCO8 dataset for all export formats
results = model.benchmark(data="coco8.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml

詳細なベンチマーク結果については、ベンチマークセクションエクスポート形式のドキュメントを参照してください。



📅作成 2年前 ✏️更新しました 2ヶ月前
glenn-jocherambitious-octopuslakshanthadRizwanMunawarMatthewNoyceandrei-kochinabirami-vinaBurhan-Q

コメント