クイックスタートガイド:NVIDIA Spark withUltralytics YOLO11
この包括的なガイドでは、NVIDIAデスクトップAIスーパーコンピュータNVIDIA NVIDIA SparkへのUltralYOLO11 デプロイに関する詳細な手順を解説します。さらに、この高性能YOLO11 能力を示すパフォーマンスベンチマーク結果も紹介しています。

注
このガイドは、UbuntuベースのDGX OSを実行するNVIDIA Spark Founders Editionでテスト済みです。最新のDGX OSリリースでも動作することが期待されます。
NVIDIA Sparkとは何ですか?
NVIDIA Sparkは、NVIDIA Grace Blackwell Superchipを搭載したコンパクトなデスクトップAIスーパーコンピュータです。FP4精度で最大1ペタFLOPSのAI演算性能を発揮し、デスクトップフォームファクターで強力なAI機能を求める開発者、研究者、データサイエンティストに最適です。
主要仕様
| 仕様 | 詳細 |
|---|---|
| AIパフォーマンス | 最大1 PFLOP (FP4) |
| GPU | NVIDIA (第5世代TensorTensor 、第4世代RTコア搭載) |
| CPU | 20コアのArmプロセッサ(10個のCortex-X925 + 10個のCortex-A725) |
| メモリ | 128 GB LPDDR5x 統合システムメモリ、256ビットインターフェース、4266 MHz、273 GB/s 帯域幅 |
| ストレージ | 1TBまたは4TB NVMe M.2(自己暗号化機能付き) |
| ネットワーク | 1x RJ-45 (10 GbE)、ConnectX-7 Smart NIC、Wi-Fi 7、Bluetooth 5.4 |
| 接続性 | USB Type-C ×4、HDMI 2.1a ×1、HDMIマルチチャンネルオーディオ |
| 動画処理 | 1x NVENC、1x NVDEC |
DGX OS
NVIDIA OSは、DGXシステム上でAI、機械学習、分析アプリケーションを実行するための安定した、テスト済みでサポート対象のオペレーティングシステム基盤を提供するカスタマイズされたLinuxディストリビューションです。以下を含みます:
- AIワークロード向けに最適化された堅牢なLinux基盤
- NVIDIA 事前設定済みドライバーおよびシステム設定
- セキュリティ更新プログラムとシステム保守機能
- NVIDIA 広範なNVIDIA エコシステムとの互換性
DGX OSは定期的なリリーススケジュールに従い、通常は年2回(2月と8月頃)に更新が提供されます。主要リリース間には追加のセキュリティパッチが提供されます。
DGXダッシュボード
DGX Sparkには組み込みのDGXダッシュボードが付属し、以下を提供します:
- リアルタイムシステム監視:システムの現在の運用指標の概要
- システム更新:ダッシュボードから直接更新を適用する機能
- システム設定:デバイス名やその他の設定を変更する
- 統合JupyterLab:開発用にローカルのJupyter Notebookにアクセス

ダッシュボードへのアクセス
Ubuntuデスクトップの左下隅にある「アプリを表示」ボタンをクリックし、「DGX Dashboard」を選択してブラウザで開きます。
# Open an SSH tunnel
ssh -L 11000:localhost:11000 <username>@<IP or spark-abcd.local>
# Then open in browser
# http://localhost:11000
NVIDIA 接続後、「DGXダッシュボード」ボタンをクリックしてダッシュボードを開きます。 http://localhost:11000.
統合JupyterLab
ダッシュボードには統合されたJupyterLabインスタンスが含まれており、起動時に自動的に仮想環境を作成し、推奨パッケージをインストールします。各ユーザーアカウントには、JupyterLabアクセス用の専用ポートが割り当てられます。
Dockerを使ったクイックスタート
NVIDIA YOLO11 迅速に開始する方法は、事前構築済みのDockerイメージを実行することです。Jetson AGX Thor(JetPack 7.0)をサポートする同一のDockerイメージが、DGX OSを搭載したDGX Sparkでも動作します。
t=ultralytics/ultralytics:latest-nvidia-arm64
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia --gpus all $t
この作業が完了したら、「 NVIDIA SparkTensorRT を使用する」セクションに進んでください。
ネイティブインストールから開始
Dockerを使用しないネイティブインストールの場合、以下の手順に従ってください。
Ultralyticsパッケージのインストール
ここでは、DGX SparkにUltralytics オプションの依存関係と共にインストールし、エクスポートできるようにします。 PyTorch モデルを他の異なる形式にエクスポートできるようにします。NVIDIA TensorRT に焦点を当てます。TensorRT DGX Sparkから最大限のパフォーマンスを引き出すことを保証TensorRT 。
パッケージリストの更新、pipのインストール、および最新バージョンへのアップグレード
sudo apt update sudo apt install python3-pip -y pip install -U pipインストール
ultralyticsオプションの依存関係を含む pip パッケージpip install ultralytics[export]デバイスを再起動
sudo reboot
PyTorchとTorchvisionのインストール
ultralytics Torch インストールされます。ただし、pip経由でインストールされたこれらのパッケージは、CUDA を搭載したDGX SparkのARM64アーキテクチャ向けに完全に最適化されていない可能性があります。そのため、CUDA 互換バージョンをインストールすることを推奨します:
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu130
情報
NVIDIA PyTorch .9.1を実行する際、以下の問題が発生する可能性があります UserWarning CUDA 初期化時CUDA 例:実行時CUDA yolo checks, yolo predictなど:
UserWarning: Found GPU0 NVIDIA GB10 which is of cuda capability 12.1.
Minimum and Maximum cuda capability supported by this version of PyTorch is (8.0) - (12.0)
この警告は安全に無視できます。恒久的な解決策として、PyTorch #164590に修正が提出されており、PyTorch .10 リリースに含まれる予定です。
インストール onnxruntime-gpu
The onnxruntime-gpu PyPI ホストされているパッケージには aarch64 ARM64システム用のバイナリ。そのため、このパッケージを手動でインストールする必要があります。このパッケージは、一部のエクスポートに必要なものです。
ここでは onnxruntime-gpu 1.24.0 with Python3.12 サポート。
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.24.0-cp312-cp312-linux_aarch64.whl
NVIDIA SparkTensorRT を使用する
Ultralyticsサポートするすべてのモデル出力形式の中で、NVIDIA Spark上で最高の推論性能TensorRT 、デプロイメントにおける最優先推奨ソリューションです。設定手順および高度な使用方法については、 TensorRT をご参照ください。
モデルをTensorRTに変換して推論を実行
PyTorch形式のYOLO11nモデルは、エクスポートされたモデルで推論を実行するためにTensorRTに変換されます。
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine # creates 'yolo11n.engine'
# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
注
モデルを異なる形式でエクスポートする際の追加引数にアクセスするには、エクスポートページをご覧ください。
NVIDIA SparkYOLO11
Ultralytics は、複数のモデル形式(PyTorch、TorchScript、ONNX、OpenVINO、TensorRT、TF SavedModel、TF GraphDef、TF 、MNN、NCNN、ExecuTorch)で速度と精度を測定するYOLO11 を実行しました。ベンチマークNVIDIA Spark上でFP32精度、デフォルト入力画像サイズ640で実行されました。
詳細な比較表
以下の表は、5つの異なるモデル(YOLO11n、YOLO11s、YOLO11m、YOLO11l、YOLO11x)における複数フォーマットのベンチマーク結果を示しており、各組み合わせの状態、サイズ、mAP50(B)指標、推論時間を確認できます。
パフォーマンス
| 形式 | ステータス | ディスク上のサイズ(MB) | mAP50(B) | 推論時間 (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 5.4 | 0.5071 | 2.67 |
| TorchScript | ✅ | 10.5 | 0.5083 | 2.62 |
| ONNX | ✅ | 10.2 | 0.5074 | 5.92 |
| OpenVINO | ✅ | 10.4 | 0.5058 | 14.95 |
| TensorRT(FP32) | ✅ | 12.8 | 0.5085 | 1.95 |
| TensorRT(FP16) | ✅ | 7.0 | 0.5068 | 1.01 |
| TensorRT(INT8) | ✅ | 18.6 | 0.4880 | 1.62 |
| TF SavedModel | ✅ | 25.7 | 0.5076 | 36.39 |
| TF GraphDef | ✅ | 10.3 | 0.5076 | 41.06 |
| TF Lite | ✅ | 10.3 | 0.5075 | 64.36 |
| MNN | ✅ | 10.1 | 0.5075 | 12.14 |
| NCNN | ✅ | 10.2 | 0.5041 | 12.31 |
| エクゼキュートーチ | ✅ | 10.2 | 0.5075 | 27.61 |
| 形式 | ステータス | ディスク上のサイズ(MB) | mAP50(B) | 推論時間 (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 18.4 | 0.5767 | 5.38 |
| TorchScript | ✅ | 36.5 | 0.5781 | 5.48 |
| ONNX | ✅ | 36.3 | 0.5784 | 8.17 |
| OpenVINO | ✅ | 36.4 | 0.5809 | 27.12 |
| TensorRT(FP32) | ✅ | 39.8 | 0.5783 | 3.59 |
| TensorRT(FP16) | ✅ | 20.1 | 0.5800 | 1.85 |
| TensorRT(INT8) | ✅ | 17.5 | 0.5664 | 1.88 |
| TF SavedModel | ✅ | 90.8 | 0.5782 | 66.63 |
| TF GraphDef | ✅ | 36.3 | 0.5782 | 71.67 |
| TF Lite | ✅ | 36.3 | 0.5782 | 187.36 |
| MNN | ✅ | 36.2 | 0.5775 | 27.05 |
| NCNN | ✅ | 36.2 | 0.5806 | 26.26 |
| エクゼキュートーチ | ✅ | 36.2 | 0.5782 | 54.73 |
| 形式 | ステータス | ディスク上のサイズ(MB) | mAP50(B) | 推論時間 (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 38.8 | 0.6254 | 11.14 |
| TorchScript | ✅ | 77.3 | 0.6304 | 12.00 |
| ONNX | ✅ | 76.9 | 0.6304 | 13.83 |
| OpenVINO | ✅ | 77.1 | 0.6284 | 62.44 |
| TensorRT(FP32) | ✅ | 79.9 | 0.6305 | 6.96 |
| TensorRT(FP16) | ✅ | 40.6 | 0.6313 | 3.14 |
| TensorRT(INT8) | ✅ | 26.6 | 0.6204 | 3.30 |
| TF SavedModel | ✅ | 192.4 | 0.6306 | 139.85 |
| TF GraphDef | ✅ | 76.9 | 0.6306 | 146.76 |
| TF Lite | ✅ | 76.9 | 0.6306 | 568.18 |
| MNN | ✅ | 76.8 | 0.6306 | 67.67 |
| NCNN | ✅ | 76.8 | 0.6308 | 60.49 |
| エクゼキュートーチ | ✅ | 76.9 | 0.6306 | 120.37 |
| 形式 | ステータス | ディスク上のサイズ(MB) | mAP50(B) | 推論時間 (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 49.0 | 0.6366 | 13.95 |
| TorchScript | ✅ | 97.6 | 0.6399 | 15.67 |
| ONNX | ✅ | 97.0 | 0.6399 | 16.62 |
| OpenVINO | ✅ | 97.3 | 0.6377 | 78.80 |
| TensorRT(FP32) | ✅ | 99.2 | 0.6407 | 8.86 |
| TensorRT(FP16) | ✅ | 50.8 | 0.6350 | 3.85 |
| TensorRT(INT8) | ✅ | 32.5 | 0.6224 | 4.52 |
| TF SavedModel | ✅ | 242.7 | 0.6409 | 187.45 |
| TF GraphDef | ✅ | 97.0 | 0.6409 | 193.92 |
| TF Lite | ✅ | 97.0 | 0.6409 | 728.61 |
| MNN | ✅ | 96.9 | 0.6369 | 85.21 |
| NCNN | ✅ | 96.9 | 0.6373 | 77.62 |
| エクゼキュートーチ | ✅ | 97.0 | 0.6409 | 153.56 |
| 形式 | ステータス | ディスク上のサイズ(MB) | mAP50(B) | 推論時間 (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 109.3 | 0.6992 | 23.19 |
| TorchScript | ✅ | 218.1 | 0.6900 | 25.75 |
| ONNX | ✅ | 217.5 | 0.6900 | 27.43 |
| OpenVINO | ✅ | 217.8 | 0.6872 | 149.44 |
| TensorRT(FP32) | ✅ | 222.7 | 0.6902 | 13.87 |
| TensorRT(FP16) | ✅ | 111.1 | 0.6883 | 6.19 |
| TensorRT(INT8) | ✅ | 62.9 | 0.6793 | 6.62 |
| TF SavedModel | ✅ | 543.9 | 0.6900 | 335.10 |
| TF GraphDef | ✅ | 217.5 | 0.6900 | 348.86 |
| TF Lite | ✅ | 217.5 | 0.6900 | 1578.66 |
| MNN | ✅ | 217.3 | 0.6874 | 168.95 |
| NCNN | ✅ | 217.4 | 0.6901 | 132.13 |
| エクゼキュートーチ | ✅ | 217.4 | 0.6900 | 297.17 |
Ultralytics .3.249 を用いてベンチマークを実施
結果の再現
上記Ultralyticsのベンチマークをすべてのエクスポート形式で再現するには、次のコードを実行します:
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml imgsz=640
ベンチマーク結果は、システムの具体的なハードウェアおよびソフトウェア構成、ならびにベンチマーク実行時のシステム負荷によって異なる可能性があることに留意してください。最も信頼性の高い結果を得るには、大量の画像を含むデータセットを使用してください。例: data='coco.yaml' (5000の検証画像)。
NVIDIA Spark のベストプラクティス
NVIDIA Sparkを使用する際、YOLO11最高のパフォーマンスを発揮させるために従うべきベストプラクティスがいくつかあります。
システムパフォーマンスの監視
NVIDIA監視ツールを使用して、CPU track :
nvidia-smiメモリ使用量の最適化
128GBの統合メモリを搭載したDGX Sparkは、大規模なバッチサイズとモデルを処理できます。スループット向上のためにバッチサイズの拡大をご検討ください:
from ultralytics import YOLO model = YOLO("yolo11n.engine") results = model.predict(source="path/to/images", batch=16)TensorRT 使用する
最高のパフォーマンスを得るには、FP16またはINT8精度でモデルをエクスポートしてください:
yolo export model=yolo11n.pt format=engine half=True # FP16 yolo export model=yolo11n.pt format=engine int8=True # INT8
システム更新 (ファウンダーズエディション)
DGX Spark Founders Editionを最新の状態に保つことは、パフォーマンスとセキュリティの観点から極めて重要です。NVIDIA 、システムOS、ドライバー、ファームウェアを更新するための主に2つのNVIDIA 。
DGXダッシュボードの使用(推奨)
DGXダッシュボードは、互換性を確保したシステム更新を実行するための推奨方法です。これにより以下のことが可能になります:
- 利用可能なシステム更新を表示する
- セキュリティパッチとシステム更新プログラムをインストールする
- NVIDIA およびファームウェアの更新を管理する
手動システム更新
上級ユーザー向けには、ターミナル経由で手動で更新を実行できます:
sudo apt update
sudo apt dist-upgrade
sudo fwupdmgr refresh
sudo fwupdmgr upgrade
sudo reboot
警告
更新を実行する前に、システムが安定した電源に接続されていることを確認し、重要なデータのバックアップを取ってください。
次のステップ
詳細な学習とサポートについては、Ultralytics YOLO11 を参照してください。
よくある質問
NVIDIA SparkYOLO11 Ultralytics YOLO11 をデプロイするにはどうすればよいですか?
NVIDIA SparkYOLO11 Ultralytics YOLO11 のデプロイは簡単です。迅速なセットアップには事前構築済みの Docker イメージを使用するか、必要なパッケージを手動でインストールできます。各方法の詳細な手順は、「Docker によるクイックスタート」および「ネイティブインストールによる開始」セクションに記載されています。
NVIDIA YOLO11 、どの程度の性能が期待できますか?
YOLO11 、GB10 Grace Blackwell Superchipを搭載したDGX Spark上で優れた性能を発揮します。TensorRT 最高の推論性能を提供します。異なるモデルサイズと形式における具体的なベンチマーク結果については、詳細比較表セクションをご確認ください。
なぜDGXYOLO11 TensorRT を使用すべきですか?
TensorRT 、最適なパフォーマンスを実現するため、DGX SparkYOLO11 に強くTensorRT 。BlackwellGPU を活用して推論を高速化し、最大限の効率と速度を確保します。詳細は「 NVIDIA TensorRT の使用」セクションをご覧ください。
YOLO11において、DGX SparkとJetsonデバイスはどのように比較されますか?
DGX Sparkは、Jetsonデバイスよりも大幅に高い演算能力を提供します。最大1PFLOPSのAI性能と128GBの統合メモリを備え、Jetson AGX Thorの2070 TFLOPSおよび128GBメモリと比較されます。DGX SparkはデスクトップAIスーパーコンピュータとして設計されているのに対し、Jetsonデバイスはエッジ展開向けに最適化された組み込みシステムです。
DGX SparkとJetson AGX Thorで同じDockerイメージを使用できますか?
はい! ultralytics/ultralytics:latest-nvidia-arm64 Dockerイメージは、NVIDIA Spark(DGX OS搭載)とJetson AGX Thor(JetPack 7.0搭載)の両方をサポートします。いずれもARM64アーキテクチャを採用し、CUDA 類似のソフトウェアスタックを備えているためです。