コンテンツへスキップ

クイックスタートガイドNVIDIA Jetson withUltralytics YOLO11

この包括的なガイドでは、NVIDIA Jetson デバイス上にUltralytics YOLO11 をデプロイするための詳細なウォークスルーを提供します。さらに、これらの小型で強力なデバイス上のYOLO11 の機能を実証するために、性能ベンチマークを紹介しています。

New product support

We have updated this guide with the latest NVIDIA Jetson Orin Nano Super Developer Kit which delivers up to 67 TOPS of AI performance — a 1.7X improvement over its predecessor — to seamlessly run the most popular AI models.



見るんだ: NVIDIA Jetsonとセットアップする方法Ultralytics YOLO11

NVIDIA ジェットソン・エコシステム

This guide has been tested with NVIDIA Jetson Orin Nano Super Developer Kit running the latest stable JetPack release of JP6.1, Seeed Studio reComputer J4012 which is based on NVIDIA Jetson Orin NX 16GB running JetPack release of JP6.0/ JetPack release of JP5.1.3 and Seeed Studio reComputer J1020 v2 which is based on NVIDIA Jetson Nano 4GB running JetPack release of JP4.6.1. It is expected to work across all the NVIDIA Jetson hardware lineup including latest and legacy.

NVIDIA ジェットソンとは?

NVIDIA Jetsonは、エッジデバイスにAI(人工知能)コンピューティングの高速化をもたらすよう設計された一連の組み込みコンピューティングボードである。これらのコンパクトで強力なデバイスは、NVIDIA のGPU アーキテクチャを中心に構築されており、クラウド・コンピューティング・リソースに依存することなく、デバイス上で複雑なAIアルゴリズムやディープラーニング・モデルを直接実行することができる。Jetsonボードは、ロボット工学、自律走行車、産業オートメーション、およびAI推論を低レイテンシかつ高効率でローカルに実行する必要があるその他のアプリケーションでよく使用される。さらに、これらのボードはARM64アーキテクチャをベースとしており、従来のGPU コンピューティング・デバイスと比較して低消費電力で動作する。

NVIDIA ジェットソンシリーズ比較

Jetson Orinは、NVIDIA Jetsonファミリーの最新版で、NVIDIA Ampereアーキテクチャをベースとしており、前世代と比較してAI性能が飛躍的に向上している。下の表は、エコシステム内のJetsonデバイスのいくつかを比較したものである。

Jetson AGX Orin 64GB Jetson Orin NX 16GB Jetson Orin Nano Super ジェットソンAGXザビエル ジェットソン・ザビエルNX ジェットソン・ナノ
AIパフォーマンス 275 TOPS 100 TOPS 67 TOPs 32 TOPS 21 トップス 472 GFLOPS
GPU 2048 コアNVIDIA アンペア・アーキテクチャGPU 64Tensor コア搭載 1024コアNVIDIA AmpereアーキテクチャGPU 32Tensor コア搭載 1024コアNVIDIA AmpereアーキテクチャGPU 32Tensor コア搭載 512コアNVIDIA VoltaアーキテクチャGPU 64Tensor コア搭載 384 コアNVIDIA Volta™ アーキテクチャGPU 48Tensor コア搭載 128コアNVIDIA Maxwell™アーキテクチャGPU
GPU 最大周波数 1.3 GHz 918 MHz 1020 MHz 1377MHz 1100 MHz 921MHz
CPU 12コアNVIDIA Arm® Cortex A78AE v8.2 64ビットCPU 3MB L2 + 6MB L3 8コアNVIDIA Arm® Cortex A78AE v8.2 64ビットCPU 2MB L2 + 4MB L3 6コア Arm® Cortex®-A78AE v8.2 64ビットCPU 1.5MB L2 + 4MB L3 8コアNVIDIA Carmel Arm®v8.2 64ビットCPU 8MB L2 + 4MB L3 6コアNVIDIA Carmel Arm®v8.2 64ビットCPU 6MB L2 + 4MB L3 クアッドコアArm® Cortex®-A57 MPCoreプロセッサ
CPU 最大周波数 2.2 GHz 2.0 GHz 1.7 GHz 2.2 GHz 1.9 GHz 1.43GHz
メモリー 64GB 256ビット LPDDR5 204.8GB/秒 16GB 128ビット LPDDR5 102.4GB/秒 8GB 128-bit LPDDR5 102 GB/s 32GB 256ビット LPDDR4x 136.5GB/秒 8GB 128ビット LPDDR4x 59.7GB/秒 4GB 64ビット LPDDR4 25.6GB/秒"

より詳細な比較表については、 NVIDIA Jetson公式ページの 技術仕様セクションをご覧ください。

NVIDIA JetPackとは?

NVIDIA Jetsonモジュールを駆動する JetPack SDKは、最も包括的なソリューションであり、エンドツーエンドの高速化AIアプリケーションを構築するための完全な開発環境を提供し、市場投入までの時間を短縮します。JetPackには、ブートローダー、Linuxカーネル、Ubuntuデスクトップ環境を備えたJetson Linuxと、GPU コンピューティング、マルチメディア、グラフィックス、コンピュータ・ビジョンの高速化のためのライブラリ一式が含まれています。また、ホスト・コンピューターと開発者キットの両方に対応したサンプル、ドキュメント、開発者ツールも含まれており、ストリーミング・ビデオ解析用のDeepStream、ロボット工学用のIsaac、会話AI用のRivaなど、より高度なSDKもサポートしている。

NVIDIA JetsonへのFlash JetPack

NVIDIA Jetsonデバイスを手に入れた後の最初のステップは、NVIDIA JetPackをデバイスにフラッシュすることです。NVIDIA Jetsonデバイスをフラッシュする方法はいくつかあります。

  1. Jetson Orin Nano Developer Kitのような公式NVIDIA 開発キットをお持ちの場合は、イメージをダウンロードし、デバイスを起動するためにJetPackでSDカードを準備することができます。
  2. 他のNVIDIA 開発キットをお持ちの場合は、SDK Managerを使用してJetPackをデバイスにフラッシュすることができます。
  3. Seeed Studio reComputer J4012 デバイスをお持ちの場合、JetPack を付属の SSD にフラッシュすることができ、Seeed Studio reComputer J1020 v2 デバイスをお持ちの場合、JetPack を eMMC/ SSD にフラッシュすることができます。
  4. NVIDIA Jetsonモジュールで駆動する他のサードパーティ製デバイスを所有している場合は、コマンドラインのフラッシュに従うことを推奨する。

上記の3および4の方法については、システムをフラッシュしてデバイスを起動した後、デバイスのターミナルで "sudo apt update && sudo apt installnvidia-jetpack -y "を入力して、必要な残りのJetPackコンポーネントをすべてインストールしてください。

Jetsonデバイスに基づくJetPackサポート

以下の表は、NVIDIA JetPack のバージョンが、NVIDIA Jetson デバイスによってサポートされていることを示しています。

ジェットパック4 ジェットパック5 ジェットパック6
ジェットソン・ナノ
ジェットソンTX2
ジェットソン・ザビエルNX
ジェットソンAGXザビエル
ジェットソン AGX オーリン
ジェットソン・オリンNX
ジェットソン・オリン・ナノ

Dockerのクイック・スタート

NVIDIA Jetson 上でUltralytics YOLO11 を使い始める最速の方法は、Jetson 用にビルド済みの docker イメージを使って実行することです。上の表を参照し、所有している Jetson デバイスに応じて JetPack のバージョンを選択してください。

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

これが終わったら、 NVIDIA JetsonでTensorRT

ネイティブ・インストールから始める

Dockerを使用しないネイティブ・インストールについては、以下の手順を参照してください。

Run on JetPack 6.1

Ultralytics パッケージのインストール

ここでは、Ultralytics パッケージを Jetson にインストールします。 PyTorchをインストールします。TensorRT は Jetson デバイスの性能を最大限に引き出せるようにするため、主にNVIDIA TensorRT の エクスポートに焦点を当てます。

  1. パッケージリストの更新、pipのインストール、最新版へのアップグレード

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. インストール ultralytics pip パッケージと依存関係のあるオプション

    pip install ultralytics[export]
    
  3. デバイスを再起動する

    sudo reboot
    

PyTorch とトーチビジョンのインストール

上記のultralytics をインストールすると、Torch と Torchvision がインストールされます。しかし、pip経由でインストールされたこれら2つのパッケージは、ARM64アーキテクチャをベースとするJetsonプラットフォーム上で動作する互換性がない。そのため、ビルド済みのPyTorch pip wheelを手動でインストールし、ソースからTorchvisionをコンパイル/インストールする必要がある。

インストール torch 2.5.0 そして torchvision 0.20 according to JP6.1

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl

PyTorch for Jetsonのページで、異なるJetPackのバージョンに対応したPyTorch 。PyTorch, Torchvisionの互換性についての詳細なリストは、PyTorch and Torchvision compatibilityページをご覧ください。

インストール cuSPARSELt to fix a dependency issue with torch 2.5.0

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev

インストール onnxruntime-gpu

について オンヌクスランタイムgpu PyPIでホストされているパッケージには aarch64 バイナリをインストールする必要がある。そのため、このパッケージを手動でインストールする必要がある。このパッケージはいくつかのエクスポートに必要です。

すべて異なる onnxruntime-gpu JetPack とPython の異なるバージョンに対応するパッケージがリストされている。 これ.しかし、ここでは onnxruntime-gpu 1.20.0Python3.10 をサポートしている。

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl

onnxruntime-gpu は自動的にnumpyのバージョンを最新に戻します。そのため、numpyを再インストールする必要があります。 1.23.5 を実行して問題を解決する:

pip install numpy==1.23.5

Run on JetPack 5.1.2

Ultralytics パッケージのインストール

ここでは、Ultralytics パッケージを Jetson にインストールし、PyTorch モデルを他の異なるフォーマットにエクスポートできるように、オプションの依存関係を設定します。TensorRT はJetsonデバイスの性能を最大限に引き出せるようにするため、主にNVIDIA TensorRT の エクスポートに焦点を当てます。

  1. パッケージリストの更新、pipのインストール、最新版へのアップグレード

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. インストール ultralytics pip パッケージと依存関係のあるオプション

    pip install ultralytics[export]
    
  3. デバイスを再起動する

    sudo reboot
    

PyTorch とトーチビジョンのインストール

上記のultralytics をインストールすると、Torch と Torchvision がインストールされます。しかし、pip経由でインストールされたこれら2つのパッケージは、ARM64アーキテクチャをベースとするJetsonプラットフォーム上で動作する互換性がない。そのため、ビルド済みのPyTorch pip wheelを手動でインストールし、ソースからTorchvisionをコンパイル/インストールする必要がある。

  1. 現在インストールされているPyTorch と Torchvision をアンインストールする。

    pip uninstall torch torchvision
    
  2. インストール torch 2.1.0 そして torchvision 0.16.2 according to JP5.1.2

    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.16.2+c6f3977-cp38-cp38-linux_aarch64.whl
    

PyTorch for Jetsonのページで、異なるJetPackのバージョンに対応したPyTorch 。PyTorch, Torchvisionの互換性についての詳細なリストは、PyTorch and Torchvision compatibilityページをご覧ください。

インストール onnxruntime-gpu

について オンヌクスランタイムgpu PyPIでホストされているパッケージには aarch64 バイナリをインストールする必要がある。そのため、このパッケージを手動でインストールする必要がある。このパッケージはいくつかのエクスポートに必要です。

すべて異なる onnxruntime-gpu JetPack とPython の異なるバージョンに対応するパッケージがリストされている。 これ.しかし、ここでは onnxruntime-gpu 1.17.0Python3.8 をサポートしている。

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

onnxruntime-gpu は自動的にnumpyのバージョンを最新に戻します。そのため、numpyを再インストールする必要があります。 1.23.5 を実行して問題を解決する:

pip install numpy==1.23.5

NVIDIA JetsonでTensorRT 。

Ultralytics でサポートされているすべてのモデルエクスポートフォーマットのうち、TensorRT は、NVIDIA Jetsonデバイスで作業するときに最高の推論パフォーマンスを提供します。TensorRT をJetsonで使用することをお勧めします。また、TensorRT に関する詳細なドキュメントもこちらにあります。

モデルをTensorRT に変換し、推論を実行する。

PyTorch 形式のYOLO11nモデルは、エクスポートされたモデルで推論を実行するためにTensorRT 。

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine  # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

モデルを異なるモデル形式にエクスポートする際の追加引数については、エクスポートページをご覧ください。

NVIDIA ディープラーニングアクセラレータ(DLA)を使用する。

NVIDIA ディープラーニング・アクセラレータ(DLA)は、NVIDIA Jetsonデバイスに組み込まれた専用ハードウェア・コンポーネントで、エネルギー効率とパフォーマンスのためにディープラーニング推論を最適化する。DLAは、GPU からタスクをオフロードする(より集中的な処理のために解放する)ことで、組み込みシステムやリアルタイムAIアプリケーションに理想的な高いスループットを維持しながら、低消費電力でモデルを実行することを可能にします。

以下のJetsonデバイスはDLAハードウェアを搭載しています:

  • Jetson Orin NX 16GB
  • ジェットソンAGXオリンシリーズ
  • ジェットソン AGX ザビエル・シリーズ
  • ジェットソン・ザビエルNXシリーズ

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True  # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

DLAエクスポートを使用する場合、一部のレイヤーはDLA上での実行がサポートされず、実行のためにGPU 。このフォールバックは、追加の待ち時間を発生させ、全体的な推論パフォーマンスに影響を与える可能性があります。したがって、DLA は、GPU 上で完全に実行されるTensorRT と比較して、推論の待ち時間を短縮することを主目的として設計されていません。その代わり、スループットを向上させ、エネルギー効率を改善することを主な目的としています。

NVIDIA Jetson OrinYOLO11 ベンチマーク

YOLO11 benchmarks were run by the Ultralytics team on 10 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, PaddlePaddle, NCNN. Benchmarks were run on both NVIDIA Jetson Orin Nano Super Developer Kit and Seeed Studio reComputer J4012 powered by Jetson Orin NX 16GB device at FP32 precision with default input image size of 640.

Comparison Charts

すべての輸出モデルがNVIDIA Jetsonで動作しているにもかかわらず、以下の比較表にはPyTorch 、 TorchScript 、 TensorRT のみを掲載しました。なぜなら、これらはJetsonのGPU を利用しており、最良の結果が得られることが保証されているからです。他のすべてのエクスポートはCPU を利用するだけであり、パフォーマンスは上記の3つほど良くありません。このグラフの後のセクションで、すべてのエクスポートのベンチマークを見ることができます。

NVIDIA Jetson Orin Nano Super Developer Kit

Jetson Orin Nano Super Benchmarks
Benchmarked with Ultralytics 8.3.51

NVIDIA Jetson Orin NX 16GB

Jetson Orin NX 16GB Benchmarks
Benchmarked with Ultralytics 8.3.51

Detailed Comparison Tables

以下の表は、5つの異なるモデル(YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x)の10種類のフォーマット(PyTorch,TorchScript,ONNX,OpenVINO,TensorRT,TF SavedModel ,TF GraphDef ,TF Lite,PaddlePaddle,NCNN )に対するベンチマーク結果であり、各組み合わせのステータス、サイズ、mAP50-95(B)メトリック、推論時間を示している。

NVIDIA Jetson Orin Nano Super Developer Kit

パフォーマンス

フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 5.4 0.6176 21.3
TorchScript 10.5 0.6100 13.40
ONNX 10.2 0.6100 7.94
OpenVINO 10.4 0.6091 57.36
TensorRT (FP32) 11.9 0.6082 7.60
TensorRT (FP16) 8.3 0.6096 4.91
TensorRT (INT8) 5.6 0.3180 3.91
TF SavedModel 25.8 0.6082 223.98
TF GraphDef 10.3 0.6082 289.95
TF ライト 10.3 0.6082 328.29
PaddlePaddle 20.4 0.6082 530.46
MNN 10.1 0.6120 74.75
NCNN 10.2 0.6106 46.12
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 18.4 0.7526 22.00
TorchScript 36.5 0.7400 21.35
ONNX 36.3 0.7400 13.91
OpenVINO 36.4 0.7391 126.95
TensorRT (FP32) 38.0 0.7400 13.29
TensorRT (FP16) 21.3 0.7431 7.30
TensorRT (INT8) 12.2 0.3243 5.25
TF SavedModel 91.1 0.7400 406.73
TF GraphDef 36.4 0.7400 629.80
TF ライト 36.4 0.7400 953.98
PaddlePaddle 72.5 0.7400 1311.67
MNN 36.2 0.7392 187.66
NCNN 36.2 0.7403 122.02
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 38.8 0.7598 33.00
TorchScript 77.3 0.7643 48.17
ONNX 76.9 0.7641 29.31
OpenVINO 77.1 0.7642 313.49
TensorRT (FP32) 78.7 0.7641 28.21
TensorRT (FP16) 41.8 0.7653 13.99
TensorRT (INT8) 23.2 0.4194 9.58
TF SavedModel 192.7 0.7643 802.30
TF GraphDef 77.0 0.7643 1335.42
TF ライト 77.0 0.7643 2842.42
PaddlePaddle 153.8 0.7643 3644.29
MNN 76.8 0.7648 503.90
NCNN 76.8 0.7674 298.78
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 49.0 0.7475 43.00
TorchScript 97.6 0.7250 62.94
ONNX 97.0 0.7250 36.33
OpenVINO 97.3 0.7226 387.72
TensorRT (FP32) 99.1 0.7250 35.59
TensorRT (FP16) 52.0 0.7265 17.57
TensorRT (INT8) 31.0 0.4033 12.37
TF SavedModel 243.3 0.7250 1116.20
TF GraphDef 97.2 0.7250 1603.32
TF ライト 97.2 0.7250 3607.51
PaddlePaddle 193.9 0.7250 4890.90
MNN 96.9 0.7222 619.04
NCNN 96.9 0.7252 352.85
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 109.3 0.8288 81.00
TorchScript 218.1 0.8308 113.49
ONNX 217.5 0.8308 75.20
OpenVINO 217.8 0.8285 508.12
TensorRT (FP32) 219.5 0.8307 67.32
TensorRT (FP16) 112.2 0.8248 32.94
TensorRT (INT8) 61.7 0.4854 20.72
TF SavedModel 545.0 0.8308 1048.8
TF GraphDef 217.8 0.8308 2961.8
TF ライト 217.8 0.8308 7898.8
PaddlePaddle 434.8 0.8308 9903.68
MNN 217.3 0.8308 1242.97
NCNN 217.3 0.8304 850.05

Benchmarked with Ultralytics 8.3.51

NVIDIA Jetson Orin NX 16GB

パフォーマンス

フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 5.4 0.6176 19.50
TorchScript 10.5 0.6100 13.03
ONNX 10.2 0.6100 8.44
OpenVINO 10.4 0.6091 40.83
TensorRT (FP32) 11.9 0.6100 8.05
TensorRT (FP16) 8.2 0.6096 4.85
TensorRT (INT8) 5.5 0.3180 4.37
TF SavedModel 25.8 0.6082 185.39
TF GraphDef 10.3 0.6082 244.85
TF ライト 10.3 0.6082 289.77
PaddlePaddle 20.4 0.6082 476.52
MNN 10.1 0.6120 53.37
NCNN 10.2 0.6106 33.55
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 18.4 0.7526 19.00
TorchScript 36.5 0.7400 22.90
ONNX 36.3 0.7400 14.44
OpenVINO 36.4 0.7391 88.70
TensorRT (FP32) 37.9 0.7400 14.13
TensorRT (FP16) 21.6 0.7406 7.55
TensorRT (INT8) 12.2 0.3243 5.63
TF SavedModel 91.1 0.7400 317.61
TF GraphDef 36.4 0.7400 515.99
TF ライト 36.4 0.7400 838.85
PaddlePaddle 72.5 0.7400 1170.07
MNN 36.2 0.7413 125.23
NCNN 36.2 0.7403 68.13
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 38.8 0.7598 36.50
TorchScript 77.3 0.7643 52.55
ONNX 76.9 0.7640 31.16
OpenVINO 77.1 0.7642 208.57
TensorRT (FP32) 78.7 0.7640 30.72
TensorRT (FP16) 41.5 0.7651 14.45
TensorRT (INT8) 23.3 0.4194 10.19
TF SavedModel 192.7 0.7643 590.11
TF GraphDef 77.0 0.7643 998.57
TF ライト 77.0 0.7643 2486.11
PaddlePaddle 153.8 0.7643 3236.09
MNN 76.8 0.7661 335.78
NCNN 76.8 0.7674 188.43
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 49.0 0.7475 46.6
TorchScript 97.6 0.7250 66.54
ONNX 97.0 0.7250 39.55
OpenVINO 97.3 0.7226 262.44
TensorRT (FP32) 99.2 0.7250 38.68
TensorRT (FP16) 51.9 0.7265 18.53
TensorRT (INT8) 30.9 0.4033 13.36
TF SavedModel 243.3 0.7250 850.25
TF GraphDef 97.2 0.7250 1324.60
TF ライト 97.2 0.7250 3191.24
PaddlePaddle 193.9 0.7250 4204.97
MNN 96.9 0.7225 414.41
NCNN 96.9 0.7252 237.74
フォーマット ステータス ディスク上のサイズ (MB) mAP50-95(B) 推論時間(ms/im)
PyTorch 109.3 0.8288 86.00
TorchScript 218.1 0.8308 122.43
ONNX 217.5 0.8307 77.50
OpenVINO 217.8 0.8285 508.12
TensorRT (FP32) 219.5 0.8307 76.44
TensorRT (FP16) 112.0 0.8309 35.99
TensorRT (INT8) 61.6 0.4854 22.32
TF SavedModel 545.0 0.8308 1470.06
TF GraphDef 217.8 0.8308 2549.78
TF ライト 217.8 0.8308 7025.44
PaddlePaddle 434.8 0.8308 8364.89
MNN 217.3 0.8289 827.13
NCNN 217.3 0.8304 490.29

Benchmarked with Ultralytics 8.3.51

NVIDIA Jetsonハードウェアのさまざまなバージョンで実行されるSeeed Studioによる、より多くのベンチマークの取り組みをご覧ください。

結果を再現する

上記のUltralytics のベンチマークをすべてのエクスポートフォーマットで再現するには、以下のコードを実行してください:

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
results = model.benchmark(data="coco8.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml imgsz=640

ベンチマークの結果は、システムの正確なハードウェアとソフトウェアの構成、およびベンチマークの実行時のシステムの現在の作業負荷によって異なる可能性があることに注意してください。最も信頼性の高い結果を得るには、画像数の多いデータセットを使用します。 data='coco8.yaml' (4 val images), ordata='coco.yaml'` (5000 val images)。

NVIDIA Jetsonを使用する際のベストプラクティス

NVIDIA Jetson を使用する場合、YOLO11 を実行するNVIDIA Jetson で最大限のパフォーマンスを発揮するために、従うべきベストプラクティスがいくつかある。

  1. MAXパワーモードを有効にする

    JetsonでMAX Power Modeを有効にすると、すべてのCPU 、GPU コアがオンになります。

    sudo nvpmodel -m 0
    
  2. ジェットソン・クロックを有効にする

    Jetson Clocksを有効にすると、すべてのCPU,GPU コアが最大周波数でクロックされるようになります。

    sudo jetson_clocks
    
  3. Jetson Statsアプリケーションのインストール

    jetson statsアプリケーションを使用して、システムコンポーネントの温度を監視し、CPU 、GPU 、RAM使用率の表示、電源モードの変更、最大クロックへの設定、JetPack情報のチェックなど、その他のシステム詳細をチェックすることができます。

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

ジェットソンのスタッツ

次のステップ

NVIDIA Jetson でYOLO11 のセットアップに成功し、おめでとうございます!さらなる学習とサポートについては、Ultralytics YOLO11 Docsのガイドをご覧ください!

よくあるご質問

NVIDIA Jetson デバイスにUltralytics YOLO11 をデプロイするには?

NVIDIA JetsonデバイスにUltralytics YOLO11 をデプロイするのは簡単なプロセスです。まず、NVIDIA JetPack SDKでJetsonデバイスをフラッシュする。次に、ビルド済みのDockerイメージを使用して素早くセットアップするか、必要なパッケージを手動でインストールします。各アプローチの詳細な手順は、「Dockerでクイック・スタート」と「ネイティブ・インストールでスタート」のセクションにあります。

NVIDIA Jetsonデバイス上のYOLO11 モデルから期待できるパフォーマンスベンチマークは?

YOLO11 models have been benchmarked on various NVIDIA Jetson devices showing significant performance improvements. For example, the TensorRT format delivers the best inference performance. The table in the Detailed Comparison Tables section provides a comprehensive view of performance metrics like mAP50-95 and inference time across different model formats.

NVIDIA JetsonにYOLO11 をデプロイするのに、なぜTensorRT を使う必要があるのですか?

TensorRT は、NVIDIA Jetson 上でYOLO11 モデルを展開する際に、その最適なパフォーマンスにより強く推奨されます。Jetson のGPU 機能を活用することで推論を加速し、最大限の効率とスピードを保証します。TensorRT に変換して推論を実行する方法については、 NVIDIA Jetson上でTensorRT を使用するセクションを参照してください。

NVIDIA JetsonにPyTorch 、Torchvisionをインストールするには?

To install PyTorch and Torchvision on NVIDIA Jetson, first uninstall any existing versions that may have been installed via pip. Then, manually install the compatible PyTorch and Torchvision versions for the Jetson's ARM64 architecture. Detailed instructions for this process are provided in the Installation of PyTorch and Torchvision section.

NVIDIA JetsonでYOLO11 、パフォーマンスを最大化するためのベストプラクティスは?

YOLO11 でNVIDIA Jetson のパフォーマンスを最大化するには、以下のベストプラクティスに従ってください:

  1. MAXパワーモードを有効にして、すべてのCPU 、GPU コアを利用する。
  2. Jetson Clocksを有効にして、すべてのコアを最大周波数で動作させる。
  3. システム・メトリクスを監視するためのJetson Statsアプリケーションをインストールします。

コマンドやその他の詳細については、 NVIDIA Jetsonを使用する際のベストプラクティスのセクションを参照してください。

📅作成:9ヶ月前 ✏️更新しました 7日前

コメント