Краткое руководство по запуску: NVIDIA Spark с Ultralytics YOLO11
Это подробное руководство содержит подробную инструкцию по развертыванию Ultralytics YOLO11 NVIDIA Spark, компактном настольном суперкомпьютере NVIDIA с искусственным интеллектом. Кроме того, в нем представлены тесты производительности, демонстрирующие возможности YOLO11 этой мощной системе.

Примечание
Данное руководство было протестировано на NVIDIA Spark Founders Edition с операционной системой DGX OS на базе Ubuntu. Ожидается, что оно будет работать с последними версиями DGX OS.
Что такое NVIDIA Spark?
NVIDIA Spark — это компактный настольный суперкомпьютер для искусственного интеллекта, основанный на суперчипе NVIDIA Grace Blackwell. Он обеспечивает вычислительную мощность до 1 петафлопса с точностью FP4, что делает его идеальным решением для разработчиков, исследователей и специалистов по обработке данных, которым требуются мощные возможности искусственного интеллекта в настольном форм-факторе.
Основные технические характеристики
| Спецификация | Подробности |
|---|---|
| Производительность ИИ | До 1 ПФЛОП (FP4) |
| GPU | Архитектура NVIDIA с Tensor 5-го поколения и RT-ядрами 4-го поколения |
| CPU | 20-ядерный процессор Arm (10 Cortex-X925 + 10 Cortex-A725) |
| Память | 128 ГБ унифицированной системной памяти LPDDR5x, 256-битный интерфейс, 4266 МГц, пропускная способность 273 ГБ/с |
| Хранение | 1 ТБ или 4 ТБ NVMe M.2 с самошифрованием |
| Сеть | 1x RJ-45 (10 GbE), ConnectX-7 Smart NIC, Wi-Fi 7, Bluetooth 5.4 |
| Подключение | 4x USB Type-C, 1x HDMI 2.1a, многоканальный аудиовыход HDMI |
| Обработка видео | 1x NVENC, 1x NVDEC |
Операционная система DGX
NVIDIA OS — это настраиваемый дистрибутив Linux, который обеспечивает стабильную, протестированную и поддерживаемую основу операционной системы для запуска приложений искусственного интеллекта, машинного обучения и аналитики на системах DGX. Он включает в себя:
- Надежная основа Linux, оптимизированная для рабочих нагрузок искусственного интеллекта
- Предварительно настроенные драйверы и системные настройки для NVIDIA
- Обновления безопасности и возможности обслуживания системы
- Совместимость с более широкой экосистемой NVIDIA
DGX OS выпускается по регулярному графику, обновления обычно предоставляются два раза в год (примерно в феврале и августе), а между основными выпусками предоставляются дополнительные патчи безопасности.
Панель управления DGX
DGX Spark поставляется со встроенной панелью управления DGX Dashboard, которая обеспечивает:
- Мониторинг системы в реальном времени: обзор текущих эксплуатационных показателей системы
- Обновления системы: возможность применять обновления непосредственно из панели управления
- Настройки системы: изменение названия устройства и других конфигураций
- Интегрированный JupyterLab: доступ к локальным Jupyter Notebooks для разработки

Доступ к панели управления
Нажмите кнопку «Показать приложения» в левом нижнем углу рабочего стола Ubuntu, затем выберите «DGX Dashboard», чтобы открыть его в браузере.
# Open an SSH tunnel
ssh -L 11000:localhost:11000 <username>@<IP or spark-abcd.local>
# Then open in browser
# http://localhost:11000
После подключения к NVIDIA нажмите кнопку «DGX Dashboard», чтобы открыть панель управления по адресу http://localhost:11000.
Интегрированный JupyterLab
Панель управления включает в себя интегрированный экземпляр JupyterLab, который при запуске автоматически создает виртуальную среду и устанавливает рекомендуемые пакеты. Каждой учетной записи пользователя назначается выделенный порт для доступа к JupyterLab.
Быстрый старт с Docker
Самый быстрый способ начать работу с Ultralytics YOLO11 NVIDIA Spark — запустить его с помощью готовых образов Docker. Тот же образ Docker, который поддерживает Jetson AGX Thor (JetPack 7.0), работает на DGX Spark с DGX OS.
t=ultralytics/ultralytics:latest-nvidia-arm64
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia --gpus all $t
После этого перейдите к разделу «Использование TensorRT NVIDIA Spark».
Начало с собственной установки
Для установки без Docker выполните следующие действия.
Установка пакета Ultralytics
Здесь мы установим Ultralytics на DGX Spark с дополнительными зависимостями, чтобы мы могли экспортировать PyTorch в другие форматы. Мы сосредоточимся в основном на TensorRT NVIDIA TensorRT , поскольку TensorRT максимальную производительность DGX Spark.
Обновите список пакетов, установите pip и обновите до последней версии
sudo apt update sudo apt install python3-pip -y pip install -U pipУстановите
ultralyticsпакет pip с необязательными зависимостямиpip install ultralytics[export]Перезагрузите устройство
sudo reboot
Установка PyTorch и Torchvision
Вышеуказанная ultralytics установит Torch Torchvision. Однако эти пакеты, установленные через pip, могут быть не полностью оптимизированы для архитектуры ARM64 DGX Spark с CUDA . Поэтому мы рекомендуем установить версии, совместимые CUDA :
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu130
Информация
При запуске PyTorch .9.1 на NVIDIA Spark могут возникнуть следующие проблемы UserWarning при инициализации CUDA например, при запуске yolo checks, yolo predictи т. д.):
UserWarning: Found GPU0 NVIDIA GB10 which is of cuda capability 12.1.
Minimum and Maximum cuda capability supported by this version of PyTorch is (8.0) - (12.0)
Это предупреждение можно смело игнорировать. Для окончательного решения этой проблемы в PyTorch #164590 было представлено исправление, которое будет включено в выпуск PyTorch .10.
Установите onnxruntime-gpu
Параметр onnxruntime-gpu пакет, размещенный в PyPI, не имеет aarch64 бинарные файлы для систем ARM64. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых экспортных операций.
Здесь мы скачаем и установим onnxruntime-gpu 1.24.0 с Python3.12 поддержкой.
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.24.0-cp312-cp312-linux_aarch64.whl
Используйте TensorRT NVIDIA Spark
Среди всех форматов экспорта моделей, поддерживаемых Ultralytics, TensorRT наивысшую производительность инференса на NVIDIA Spark, что делает его нашим лучшим выбором для развертывания. Инструкции по настройке и расширенному использованию см. в нашем специальном руководстве TensorRT .
Преобразование модели в TensorRT и запуск вывода
Модель YOLO11n в формате PyTorch преобразуется в TensorRT для запуска инференса с экспортированной моделью.
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine # creates 'yolo11n.engine'
# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
Примечание
Посетите страницу экспорта, чтобы получить доступ к дополнительным аргументам при экспорте моделей в различные форматы.
YOLO11 NVIDIA Spark YOLO11
Ultralytics провела YOLO11 на нескольких форматах моделей, измерив скорость и точность: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF , MNN, NCNN, ExecuTorch. Тестирование проводилось на NVIDIA Spark с точностью FP32 и стандартным размером входного изображения 640.
Подробная сравнительная таблица
В приведенной ниже таблице представлены результаты тестирования пяти различных моделей (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) в нескольких форматах, с указанием статуса, размера, метрики mAP50(B) и времени вывода для каждой комбинации.
Производительность
| Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время инференса (мс/изобр.) |
|---|---|---|---|---|
| PyTorch | ✅ | 5.4 | 0.5071 | 2.67 |
| TorchScript | ✅ | 10.5 | 0.5083 | 2.62 |
| ONNX | ✅ | 10.2 | 0.5074 | 5.92 |
| OpenVINO | ✅ | 10.4 | 0.5058 | 14.95 |
| TensorRT (FP32) | ✅ | 12.8 | 0.5085 | 1.95 |
| TensorRT (FP16) | ✅ | 7.0 | 0.5068 | 1.01 |
| TensorRT (INT8) | ✅ | 18.6 | 0.4880 | 1.62 |
| TF SavedModel | ✅ | 25.7 | 0.5076 | 36.39 |
| TF GraphDef | ✅ | 10.3 | 0.5076 | 41.06 |
| TF Lite | ✅ | 10.3 | 0.5075 | 64.36 |
| MNN | ✅ | 10.1 | 0.5075 | 12.14 |
| NCNN | ✅ | 10.2 | 0.5041 | 12.31 |
| ExecuTorch | ✅ | 10.2 | 0.5075 | 27.61 |
| Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время инференса (мс/изобр.) |
|---|---|---|---|---|
| PyTorch | ✅ | 18.4 | 0.5767 | 5.38 |
| TorchScript | ✅ | 36.5 | 0.5781 | 5.48 |
| ONNX | ✅ | 36.3 | 0.5784 | 8.17 |
| OpenVINO | ✅ | 36.4 | 0.5809 | 27.12 |
| TensorRT (FP32) | ✅ | 39.8 | 0.5783 | 3.59 |
| TensorRT (FP16) | ✅ | 20.1 | 0.5800 | 1.85 |
| TensorRT (INT8) | ✅ | 17.5 | 0.5664 | 1.88 |
| TF SavedModel | ✅ | 90.8 | 0.5782 | 66.63 |
| TF GraphDef | ✅ | 36.3 | 0.5782 | 71.67 |
| TF Lite | ✅ | 36.3 | 0.5782 | 187.36 |
| MNN | ✅ | 36.2 | 0.5775 | 27.05 |
| NCNN | ✅ | 36.2 | 0.5806 | 26.26 |
| ExecuTorch | ✅ | 36.2 | 0.5782 | 54.73 |
| Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время инференса (мс/изобр.) |
|---|---|---|---|---|
| PyTorch | ✅ | 38.8 | 0.6254 | 11.14 |
| TorchScript | ✅ | 77.3 | 0.6304 | 12.00 |
| ONNX | ✅ | 76.9 | 0.6304 | 13.83 |
| OpenVINO | ✅ | 77.1 | 0.6284 | 62.44 |
| TensorRT (FP32) | ✅ | 79.9 | 0.6305 | 6.96 |
| TensorRT (FP16) | ✅ | 40.6 | 0.6313 | 3.14 |
| TensorRT (INT8) | ✅ | 26.6 | 0.6204 | 3.30 |
| TF SavedModel | ✅ | 192.4 | 0.6306 | 139.85 |
| TF GraphDef | ✅ | 76.9 | 0.6306 | 146.76 |
| TF Lite | ✅ | 76.9 | 0.6306 | 568.18 |
| MNN | ✅ | 76.8 | 0.6306 | 67.67 |
| NCNN | ✅ | 76.8 | 0.6308 | 60.49 |
| ExecuTorch | ✅ | 76.9 | 0.6306 | 120.37 |
| Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время инференса (мс/изобр.) |
|---|---|---|---|---|
| PyTorch | ✅ | 49.0 | 0.6366 | 13.95 |
| TorchScript | ✅ | 97.6 | 0.6399 | 15.67 |
| ONNX | ✅ | 97.0 | 0.6399 | 16.62 |
| OpenVINO | ✅ | 97.3 | 0.6377 | 78.80 |
| TensorRT (FP32) | ✅ | 99.2 | 0.6407 | 8.86 |
| TensorRT (FP16) | ✅ | 50.8 | 0.6350 | 3.85 |
| TensorRT (INT8) | ✅ | 32.5 | 0.6224 | 4.52 |
| TF SavedModel | ✅ | 242.7 | 0.6409 | 187.45 |
| TF GraphDef | ✅ | 97.0 | 0.6409 | 193.92 |
| TF Lite | ✅ | 97.0 | 0.6409 | 728.61 |
| MNN | ✅ | 96.9 | 0.6369 | 85.21 |
| NCNN | ✅ | 96.9 | 0.6373 | 77.62 |
| ExecuTorch | ✅ | 97.0 | 0.6409 | 153.56 |
| Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время инференса (мс/изобр.) |
|---|---|---|---|---|
| PyTorch | ✅ | 109.3 | 0.6992 | 23.19 |
| TorchScript | ✅ | 218.1 | 0.6900 | 25.75 |
| ONNX | ✅ | 217.5 | 0.6900 | 27.43 |
| OpenVINO | ✅ | 217.8 | 0.6872 | 149.44 |
| TensorRT (FP32) | ✅ | 222.7 | 0.6902 | 13.87 |
| TensorRT (FP16) | ✅ | 111.1 | 0.6883 | 6.19 |
| TensorRT (INT8) | ✅ | 62.9 | 0.6793 | 6.62 |
| TF SavedModel | ✅ | 543.9 | 0.6900 | 335.10 |
| TF GraphDef | ✅ | 217.5 | 0.6900 | 348.86 |
| TF Lite | ✅ | 217.5 | 0.6900 | 1578.66 |
| MNN | ✅ | 217.3 | 0.6874 | 168.95 |
| NCNN | ✅ | 217.4 | 0.6901 | 132.13 |
| ExecuTorch | ✅ | 217.4 | 0.6900 | 297.17 |
Тестирование с помощью Ultralytics .3.249
Воспроизведение наших результатов
Чтобы воспроизвести вышеуказанные тесты Ultralytics для всех форматов экспорта, запустите этот код:
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml imgsz=640
Обратите внимание, что результаты тестирования могут варьироваться в зависимости от конкретной конфигурации аппаратного и программного обеспечения системы, а также от текущей рабочей нагрузки системы на момент проведения тестирования. Для получения наиболее достоверных результатов используйте набор данных с большим количеством изображений, например data='coco.yaml' (5000 изображений для проверки).
Лучшие практики для NVIDIA Spark
При использовании NVIDIA Spark следует соблюдать несколько рекомендаций, чтобы обеспечить максимальную производительность при работе с YOLO11.
Мониторинг производительности системы
Используйте инструменты мониторинга NVIDIA для track CPU GPU CPU :
nvidia-smiОптимизация использования памяти
Благодаря 128 ГБ унифицированной памяти DGX Spark может обрабатывать большие пакеты данных и модели. Рассмотрите возможность увеличения размера пакета для повышения пропускной способности:
from ultralytics import YOLO model = YOLO("yolo11n.engine") results = model.predict(source="path/to/images", batch=16)Используйте TensorRT FP16 или INT8
Для достижения наилучшей производительности экспортируйте модели с точностью FP16 или INT8:
yolo export model=yolo11n.pt format=engine half=True # FP16 yolo export model=yolo11n.pt format=engine int8=True # INT8
Обновления системы (Founders Edition)
Поддержание DGX Spark Founders Edition в актуальном состоянии имеет решающее значение для производительности и безопасности. NVIDIA два основных метода обновления ОС системы, драйверов и прошивки.
Использование панели управления DGX (рекомендуется)
Панель управления DGX — это рекомендуемый способ выполнения обновлений системы, обеспечивающий совместимость. Она позволяет:
- Просмотр доступных обновлений системы
- Установите патчи безопасности и обновления системы
- Управление обновлениями NVIDIA и прошивки NVIDIA
Ручное обновление системы
Для опытных пользователей обновления можно выполнять вручную через терминал:
sudo apt update
sudo apt dist-upgrade
sudo fwupdmgr refresh
sudo fwupdmgr upgrade
sudo reboot
Предупреждение
Перед выполнением обновлений убедитесь, что ваша система подключена к стабильному источнику питания и вы создали резервную копию важных данных.
Следующие шаги
Для получения дополнительной информации и поддержки см. YOLO11 Ultralytics YOLO11 .
Часто задаваемые вопросы
Как развернуть Ultralytics YOLO11 NVIDIA Spark?
Развертывание Ultralytics YOLO11 NVIDIA Spark не представляет сложности. Вы можете использовать готовый образ Docker для быстрой настройки или вручную установить необходимые пакеты. Подробные инструкции по каждому из подходов можно найти в разделах «Быстрый старт с Docker » и «Начало работы с помощью native-установки».
Какую производительность я могу ожидать от YOLO11 NVIDIA Spark?
YOLO11 демонстрируют отличную производительность на DGX Spark благодаря суперчипу GB10 Grace Blackwell. TensorRT обеспечивает наилучшую производительность при выводах. Ознакомьтесь с разделом «Подробная сравнительная таблица», чтобы увидеть конкретные результаты тестирования для моделей разных размеров и форматов.
Почему я должен использовать TensorRT YOLO11 DGX Spark?
TensorRT настоятельно TensorRT для развертывания YOLO11 на DGX Spark из-за его оптимальной производительности. Он ускоряет вывод, используя GPU Blackwell, обеспечивая максимальную эффективность и скорость. Подробнее см. в разделе «Использование TensorRT NVIDIA Spark ».
Как DGX Spark сравнивается с устройствами Jetson для YOLO11?
DGX Spark предлагает значительно большую вычислительную мощность, чем устройства Jetson, с производительностью ИИ до 1 ПФЛОП и 128 ГБ унифицированной памяти, по сравнению с 2070 ТФЛОП и 128 ГБ памяти Jetson AGX Thor. DGX Spark разработан как настольный суперкомпьютер с ИИ, в то время как устройства Jetson представляют собой встроенные системы, оптимизированные для развертывания на периферии.
Можно ли использовать один и тот же образ Docker для DGX Spark и Jetson AGX Thor?
Да! ultralytics/ultralytics:latest-nvidia-arm64 Образ Docker поддерживает как NVIDIA Spark (с DGX OS), так и Jetson AGX Thor (с JetPack 7.0), поскольку оба используют архитектуру ARM64 с CUDA и аналогичными программными стеками.