Краткое руководство пользователя: NVIDIA Jetson с Ultralytics YOLO11
В этом подробном руководстве подробно описано развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson. Кроме того, в нем приведены контрольные показатели производительности, демонстрирующие возможности YOLO11 на этих небольших и мощных устройствах.
New product support
We have updated this guide with the latest NVIDIA Jetson Orin Nano Super Developer Kit which delivers up to 67 TOPS of AI performance — a 1.7X improvement over its predecessor — to seamlessly run the most popular AI models.
Смотреть: Как настроить NVIDIA Jetson с Ultralytics YOLO11
Примечание
This guide has been tested with NVIDIA Jetson Orin Nano Super Developer Kit running the latest stable JetPack release of JP6.1, Seeed Studio reComputer J4012 which is based on NVIDIA Jetson Orin NX 16GB running JetPack release of JP6.0/ JetPack release of JP5.1.3 and Seeed Studio reComputer J1020 v2 which is based on NVIDIA Jetson Nano 4GB running JetPack release of JP4.6.1. It is expected to work across all the NVIDIA Jetson hardware lineup including latest and legacy.
Что такое NVIDIA Джетсон?
NVIDIA Jetson - это серия встраиваемых вычислительных плат, призванных обеспечить ускоренные вычисления в области искусственного интеллекта (ИИ) на граничных устройствах. Эти компактные и мощные устройства построены на базе архитектуры NVIDIA' GPU и способны выполнять сложные алгоритмы ИИ и модели глубокого обучения непосредственно на устройстве, не прибегая к облачным вычислительным ресурсам. Платы Jetson часто используются в робототехнике, автономных транспортных средствах, промышленной автоматизации и других приложениях, где требуется локальное выполнение выводов ИИ с низкой задержкой и высокой эффективностью. Кроме того, эти платы основаны на архитектуре ARM64 и работают с меньшим энергопотреблением по сравнению с традиционными вычислительными устройствами GPU .
NVIDIA Сравнение серий Jetson
Jetson Orin - это последняя итерация семейства NVIDIA Jetson, основанная на архитектуре NVIDIA Ampere, которая обеспечивает значительно более высокую производительность искусственного интеллекта по сравнению с предыдущими поколениями. Ниже в таблице приведено сравнение нескольких устройств Jetson в экосистеме.
Jetson AGX Orin 64GB | Jetson Orin NX 16GB | Jetson Orin Nano Super | Jetson AGX Xavier | Jetson Xavier NX | Jetson Nano | |
---|---|---|---|---|---|---|
Производительность искусственного интеллекта | 275 TOPS | 100 TOPS | 67 TOPs | 32 TOPS | 21 TOPS | 472 ГФЛОПС |
GPU | 2048-ядерная архитектура NVIDIA Ампер GPU с 64 ядрами Tensor | 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor | 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor | 512-ядерная архитектура NVIDIA Volta GPU с 64 ядрами Tensor | 384-ядерная архитектура NVIDIA Volta™ GPU с 48 ядрами Tensor | 128-ядерная архитектура NVIDIA Maxwell™ GPU |
GPU Максимальная частота | 1,3 ГГц | 918 МГц | 1020 MHz | 1377 МГц | 1100 МГц | 921 МГц |
CPU | 12-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 | 8-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 | 6-ядерный Arm® Cortex®-A78AE v8.2 64-bit CPU 1,5 МБ L2 + 4 МБ L3 | 8-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 8 МБ L2 + 4 МБ L3 | 6-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 | Четырехъядерный процессор Arm® Cortex®-A57 MPCore |
CPU Максимальная частота | 2,2 ГГц | 2,0 ГГц | 1.7 GHz | 2,2 ГГц | 1,9 ГГц | 1,43 ГГц |
Память | 64 ГБ 256-битной LPDDR5 204,8 ГБ/с | 16 ГБ 128-битной LPDDR5 102,4 ГБ/с | 8GB 128-bit LPDDR5 102 GB/s | 32 ГБ 256-битной LPDDR4x 136,5 ГБ/с | 8 ГБ 128-битной LPDDR4x 59,7 ГБ/с | 4 ГБ 64-битной LPDDR4 25,6 ГБ/с" |
Более подробную сравнительную таблицу можно найти в разделе " Технические характеристики" на официальной странице NVIDIA Jetson.
Что такое NVIDIA JetPack?
NVIDIA JetPack SDK на базе модулей Jetson является наиболее полным решением и предоставляет полноценную среду разработки для создания сквозных ускоренных приложений ИИ и сокращает время выхода на рынок. JetPack включает в себя Jetson Linux с загрузчиком, ядро Linux, среду рабочего стола Ubuntu и полный набор библиотек для ускорения вычислений GPU , мультимедиа, графики и компьютерного зрения. Он также включает примеры, документацию и инструменты разработчика как для хост-компьютера, так и для комплекта разработчика, а также поддерживает SDK более высокого уровня, такие как DeepStream для анализа потокового видео, Isaac для робототехники и Riva для разговорного ИИ.
Flash JetPack на NVIDIA Jetson
Первым шагом после получения в руки устройства NVIDIA Jetson будет прошивка NVIDIA JetPack на устройство. Существует несколько различных способов прошивки устройств NVIDIA Jetson.
- Если у вас есть официальный комплект разработчика NVIDIA , например Jetson Orin Nano Developer Kit, вы можете загрузить образ и подготовить SD-карту с JetPack для загрузки устройства.
- Если у вас есть любой другой NVIDIA Development Kit, вы можете прошить JetPack на устройство с помощью SDK Manager.
- Если вы являетесь владельцем устройства Seeed Studio reComputer J4012, вы можете прошить JetPack на прилагаемый SSD, а если вы являетесь владельцем устройства Seeed Studio reComputer J1020 v2, вы можете прошить JetPack на eMMC/ SSD.
- Если вы являетесь владельцем любого другого устройства стороннего производителя, работающего на модуле NVIDIA Jetson, рекомендуется выполнить прошивку из командной строки.
Примечание
Для методов 3 и 4, описанных выше, после прошивки системы и загрузки устройства введите "sudo apt update && sudo apt install nvidia-jetpack -y" в терминале устройства, чтобы установить все остальные необходимые компоненты JetPack.
Поддержка JetPack на базе устройства Jetson
В таблице ниже представлены версии NVIDIA JetPack, поддерживаемые различными устройствами NVIDIA Jetson.
JetPack 4 | JetPack 5 | JetPack 6 | |
---|---|---|---|
Jetson Nano | ✅ | ❌ | ❌ |
Jetson TX2 | ✅ | ❌ | ❌ |
Jetson Xavier NX | ✅ | ✅ | ❌ |
Jetson AGX Xavier | ✅ | ✅ | ❌ |
Jetson AGX Orin | ❌ | ✅ | ✅ |
Jetson Orin NX | ❌ | ✅ | ✅ |
Jetson Orin Nano | ❌ | ✅ | ✅ |
Быстрый старт с Docker
Самый быстрый способ начать работу с Ultralytics YOLO11 на NVIDIA Jetson - запустить его с помощью предварительно созданных докер-образов для Jetson. Обратитесь к таблице выше и выберите версию JetPack в соответствии с имеющимся у вас устройством Jetson.
После этого перейдите к разделу "Использование TensorRT на NVIDIA Jetson".
Начните с родной установки
Для установки "родной" версии без использования Docker, пожалуйста, обратитесь к следующим шагам.
Run on JetPack 6.1
Установите пакет Ultralytics
Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать PyTorch модели в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT обеспечит нам максимальную производительность устройств Jetson.
-
Обновление списка пакетов, установка pip и обновление до последней версии
-
Установите
ultralytics
Пакет pip с дополнительными зависимостями -
Перезагрузите устройство
Установите PyTorch и Torchvision
Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.
Установите torch 2.5.0
и torchvision 0.20
according to JP6.1
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl
Примечание
Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.
Установите cuSPARSELt
to fix a dependency issue with torch 2.5.0
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev
Установите onnxruntime-gpu
Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64
двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.
Все разные onnxruntime-gpu
Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.20.0
с Python3.10
поддержка.
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl
Примечание
onnxruntime-gpu
автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5
чтобы устранить проблему, выполнив ее:
pip install numpy==1.23.5
Run on JetPack 5.1.2
Установите пакет Ultralytics
Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать модели PyTorch в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT позволит нам добиться максимальной производительности устройств Jetson.
-
Обновление списка пакетов, установка pip и обновление до последней версии
-
Установите
ultralytics
Пакет pip с дополнительными зависимостями -
Перезагрузите устройство
Установите PyTorch и Torchvision
Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.
-
Удалите установленные в данный момент PyTorch и Torchvision.
-
Установите
torch 2.1.0
иtorchvision 0.16.2
according to JP5.1.2
Примечание
Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.
Установите onnxruntime-gpu
Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64
двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.
Все разные onnxruntime-gpu
Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.17.0
с Python3.8
поддержка.
wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
Примечание
onnxruntime-gpu
автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5
чтобы устранить проблему, выполнив ее:
pip install numpy==1.23.5
Используйте TensorRT на сайте NVIDIA Jetson.
Из всех форматов экспорта моделей, поддерживаемых Ultralytics, TensorRT обеспечивает наилучшую производительность при работе с устройствами NVIDIA Jetson, и мы рекомендуем использовать TensorRT с Jetson. У нас также есть подробный документ по TensorRT здесь.
Преобразование модели в TensorRT и проведение расчетов
Модель YOLO11n в формате PyTorch преобразуется в формат TensorRT для проведения расчетов с экспортированной моделью.
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
Примечание
Посетите страницу Экспорт, чтобы получить доступ к дополнительным аргументам при экспорте моделей в различные форматы
Используйте NVIDIA Deep Learning Accelerator (DLA).
NVIDIA Deep Learning Accelerator (DLA) - это специализированный аппаратный компонент, встроенный в устройства NVIDIA Jetson, который оптимизирует выводы глубокого обучения для повышения энергоэффективности и производительности. Разгружая GPU от задач (освобождая его для более интенсивных процессов), DLA позволяет моделям работать с меньшим энергопотреблением при сохранении высокой пропускной способности, что идеально подходит для встраиваемых систем и приложений ИИ в реальном времени.
Следующие устройства Jetson оснащены оборудованием DLA:
- Jetson Orin NX 16GB
- Серия Jetson AGX Orin
- Серия Jetson AGX Xavier
- Серия Jetson Xavier NX
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True) # dla:0 or dla:1 corresponds to the DLA cores
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores
# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
Примечание
При использовании экспорта DLA некоторые слои могут не поддерживаться для работы на DLA и будут возвращаться на GPU для выполнения. Такой возврат может внести дополнительные задержки и повлиять на общую производительность выводов. Поэтому DLA не предназначен для уменьшения задержек в выводах по сравнению с TensorRT , работающим полностью на GPU. Вместо этого его основная цель - увеличить пропускную способность и повысить энергоэффективность.
NVIDIA Jetson Orin YOLO11 Бенчмарки
YOLO11 benchmarks were run by the Ultralytics team on 10 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, PaddlePaddle, NCNN. Benchmarks were run on both NVIDIA Jetson Orin Nano Super Developer Kit and Seeed Studio reComputer J4012 powered by Jetson Orin NX 16GB device at FP32 precision with default input image size of 640.
Comparison Charts
Несмотря на то что все экспортируемые модели работают с NVIDIA Jetson, мы включили в сравнительную таблицу только PyTorch, TorchScript, TensorRT, потому что они используют GPU на Jetson и гарантированно дают наилучшие результаты. Все остальные экспорты используют только CPU , и их производительность не так высока, как у трех вышеперечисленных. Вы можете найти контрольные показатели для всех экспортов в разделе после этой диаграммы.
NVIDIA Jetson Orin Nano Super Developer Kit
NVIDIA Jetson Orin NX 16GB
Detailed Comparison Tables
В таблице ниже представлены результаты бенчмарка для пяти различных моделей (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) в десяти различных форматах (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), с указанием статуса, размера, метрики mAP50-95(B) и времени вывода для каждой комбинации.
NVIDIA Jetson Orin Nano Super Developer Kit
Производительность
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 21.3 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.40 |
ONNX | ✅ | 10.2 | 0.6100 | 7.94 |
OpenVINO | ✅ | 10.4 | 0.6091 | 57.36 |
TensorRT (FP32) | ✅ | 11.9 | 0.6082 | 7.60 |
TensorRT (FP16) | ✅ | 8.3 | 0.6096 | 4.91 |
TensorRT (INT8) | ✅ | 5.6 | 0.3180 | 3.91 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 223.98 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 289.95 |
TF Lite | ✅ | 10.3 | 0.6082 | 328.29 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 530.46 |
MNN | ✅ | 10.1 | 0.6120 | 74.75 |
NCNN | ✅ | 10.2 | 0.6106 | 46.12 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 22.00 |
TorchScript | ✅ | 36.5 | 0.7400 | 21.35 |
ONNX | ✅ | 36.3 | 0.7400 | 13.91 |
OpenVINO | ✅ | 36.4 | 0.7391 | 126.95 |
TensorRT (FP32) | ✅ | 38.0 | 0.7400 | 13.29 |
TensorRT (FP16) | ✅ | 21.3 | 0.7431 | 7.30 |
TensorRT (INT8) | ✅ | 12.2 | 0.3243 | 5.25 |
TF SavedModel | ✅ | 91.1 | 0.7400 | 406.73 |
TF GraphDef | ✅ | 36.4 | 0.7400 | 629.80 |
TF Lite | ✅ | 36.4 | 0.7400 | 953.98 |
PaddlePaddle | ✅ | 72.5 | 0.7400 | 1311.67 |
MNN | ✅ | 36.2 | 0.7392 | 187.66 |
NCNN | ✅ | 36.2 | 0.7403 | 122.02 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7598 | 33.00 |
TorchScript | ✅ | 77.3 | 0.7643 | 48.17 |
ONNX | ✅ | 76.9 | 0.7641 | 29.31 |
OpenVINO | ✅ | 77.1 | 0.7642 | 313.49 |
TensorRT (FP32) | ✅ | 78.7 | 0.7641 | 28.21 |
TensorRT (FP16) | ✅ | 41.8 | 0.7653 | 13.99 |
TensorRT (INT8) | ✅ | 23.2 | 0.4194 | 9.58 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 802.30 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 1335.42 |
TF Lite | ✅ | 77.0 | 0.7643 | 2842.42 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3644.29 |
MNN | ✅ | 76.8 | 0.7648 | 503.90 |
NCNN | ✅ | 76.8 | 0.7674 | 298.78 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 43.00 |
TorchScript | ✅ | 97.6 | 0.7250 | 62.94 |
ONNX | ✅ | 97.0 | 0.7250 | 36.33 |
OpenVINO | ✅ | 97.3 | 0.7226 | 387.72 |
TensorRT (FP32) | ✅ | 99.1 | 0.7250 | 35.59 |
TensorRT (FP16) | ✅ | 52.0 | 0.7265 | 17.57 |
TensorRT (INT8) | ✅ | 31.0 | 0.4033 | 12.37 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 1116.20 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1603.32 |
TF Lite | ✅ | 97.2 | 0.7250 | 3607.51 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4890.90 |
MNN | ✅ | 96.9 | 0.7222 | 619.04 |
NCNN | ✅ | 96.9 | 0.7252 | 352.85 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 81.00 |
TorchScript | ✅ | 218.1 | 0.8308 | 113.49 |
ONNX | ✅ | 217.5 | 0.8308 | 75.20 |
OpenVINO | ✅ | 217.8 | 0.8285 | 508.12 |
TensorRT (FP32) | ✅ | 219.5 | 0.8307 | 67.32 |
TensorRT (FP16) | ✅ | 112.2 | 0.8248 | 32.94 |
TensorRT (INT8) | ✅ | 61.7 | 0.4854 | 20.72 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1048.8 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2961.8 |
TF Lite | ✅ | 217.8 | 0.8308 | 7898.8 |
PaddlePaddle | ✅ | 434.8 | 0.8308 | 9903.68 |
MNN | ✅ | 217.3 | 0.8308 | 1242.97 |
NCNN | ✅ | 217.3 | 0.8304 | 850.05 |
Benchmarked with Ultralytics 8.3.51
NVIDIA Jetson Orin NX 16GB
Производительность
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 19.50 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.03 |
ONNX | ✅ | 10.2 | 0.6100 | 8.44 |
OpenVINO | ✅ | 10.4 | 0.6091 | 40.83 |
TensorRT (FP32) | ✅ | 11.9 | 0.6100 | 8.05 |
TensorRT (FP16) | ✅ | 8.2 | 0.6096 | 4.85 |
TensorRT (INT8) | ✅ | 5.5 | 0.3180 | 4.37 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 185.39 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 244.85 |
TF Lite | ✅ | 10.3 | 0.6082 | 289.77 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 476.52 |
MNN | ✅ | 10.1 | 0.6120 | 53.37 |
NCNN | ✅ | 10.2 | 0.6106 | 33.55 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 19.00 |
TorchScript | ✅ | 36.5 | 0.7400 | 22.90 |
ONNX | ✅ | 36.3 | 0.7400 | 14.44 |
OpenVINO | ✅ | 36.4 | 0.7391 | 88.70 |
TensorRT (FP32) | ✅ | 37.9 | 0.7400 | 14.13 |
TensorRT (FP16) | ✅ | 21.6 | 0.7406 | 7.55 |
TensorRT (INT8) | ✅ | 12.2 | 0.3243 | 5.63 |
TF SavedModel | ✅ | 91.1 | 0.7400 | 317.61 |
TF GraphDef | ✅ | 36.4 | 0.7400 | 515.99 |
TF Lite | ✅ | 36.4 | 0.7400 | 838.85 |
PaddlePaddle | ✅ | 72.5 | 0.7400 | 1170.07 |
MNN | ✅ | 36.2 | 0.7413 | 125.23 |
NCNN | ✅ | 36.2 | 0.7403 | 68.13 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7598 | 36.50 |
TorchScript | ✅ | 77.3 | 0.7643 | 52.55 |
ONNX | ✅ | 76.9 | 0.7640 | 31.16 |
OpenVINO | ✅ | 77.1 | 0.7642 | 208.57 |
TensorRT (FP32) | ✅ | 78.7 | 0.7640 | 30.72 |
TensorRT (FP16) | ✅ | 41.5 | 0.7651 | 14.45 |
TensorRT (INT8) | ✅ | 23.3 | 0.4194 | 10.19 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 590.11 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 998.57 |
TF Lite | ✅ | 77.0 | 0.7643 | 2486.11 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3236.09 |
MNN | ✅ | 76.8 | 0.7661 | 335.78 |
NCNN | ✅ | 76.8 | 0.7674 | 188.43 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 46.6 |
TorchScript | ✅ | 97.6 | 0.7250 | 66.54 |
ONNX | ✅ | 97.0 | 0.7250 | 39.55 |
OpenVINO | ✅ | 97.3 | 0.7226 | 262.44 |
TensorRT (FP32) | ✅ | 99.2 | 0.7250 | 38.68 |
TensorRT (FP16) | ✅ | 51.9 | 0.7265 | 18.53 |
TensorRT (INT8) | ✅ | 30.9 | 0.4033 | 13.36 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 850.25 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1324.60 |
TF Lite | ✅ | 97.2 | 0.7250 | 3191.24 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4204.97 |
MNN | ✅ | 96.9 | 0.7225 | 414.41 |
NCNN | ✅ | 96.9 | 0.7252 | 237.74 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 86.00 |
TorchScript | ✅ | 218.1 | 0.8308 | 122.43 |
ONNX | ✅ | 217.5 | 0.8307 | 77.50 |
OpenVINO | ✅ | 217.8 | 0.8285 | 508.12 |
TensorRT (FP32) | ✅ | 219.5 | 0.8307 | 76.44 |
TensorRT (FP16) | ✅ | 112.0 | 0.8309 | 35.99 |
TensorRT (INT8) | ✅ | 61.6 | 0.4854 | 22.32 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1470.06 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2549.78 |
TF Lite | ✅ | 217.8 | 0.8308 | 7025.44 |
PaddlePaddle | ✅ | 434.8 | 0.8308 | 8364.89 |
MNN | ✅ | 217.3 | 0.8289 | 827.13 |
NCNN | ✅ | 217.3 | 0.8304 | 490.29 |
Benchmarked with Ultralytics 8.3.51
Изучите результаты бенчмарков Seeed Studio, проведенных на различных версиях аппаратного обеспечения NVIDIA Jetson.
Воспроизведите наши результаты
Чтобы воспроизвести приведенные выше эталоны Ultralytics на всех форматах экспорта, выполните этот код:
Пример
Обратите внимание, что результаты бенчмарков могут отличаться в зависимости от точной аппаратной и программной конфигурации системы, а также от текущей нагрузки на систему в момент запуска бенчмарков. Для получения наиболее достоверных результатов используйте набор данных с большим количеством изображений, т. е. data='coco8.yaml' (4 val images), or
data='coco.yaml'` (5000 изображений val).
Лучшие практики при использовании NVIDIA Jetson
При использовании NVIDIA Jetson следует придерживаться нескольких рекомендаций, чтобы обеспечить максимальную производительность NVIDIA Jetson под управлением YOLO11.
-
Включить режим MAX Power
Включение режима MAX Power Mode на Jetson обеспечит включение всех ядер CPU, GPU .
-
Включить часы Jetson
Включение Jetson Clocks гарантирует, что все ядра CPU, GPU будут работать на максимальной частоте.
-
Установите приложение Jetson Stats
Мы можем использовать приложение jetson stats для мониторинга температуры компонентов системы и проверки других системных данных, таких как просмотр CPU, GPU, использование оперативной памяти, изменение режимов питания, установка максимальных часов, проверка информации о JetPack.
Следующие шаги
Поздравляем с успешной настройкой YOLO11 на вашем NVIDIA Jetson! Для дальнейшего обучения и поддержки посетите дополнительное руководство на Ultralytics YOLO11 Docs!
ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ
Как развернуть Ultralytics YOLO11 на устройствах NVIDIA Jetson?
Развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson - это простой процесс. Сначала прошейте устройство Jetson с помощью NVIDIA JetPack SDK. Затем воспользуйтесь готовым образом Docker для быстрой настройки или установите необходимые пакеты вручную. Подробные шаги для каждого подхода можно найти в разделах "Быстрый старт с Docker" и "Старт с нативной установкой".
Каких показателей производительности можно ожидать от моделей YOLO11 на устройствах NVIDIA Jetson?
YOLO11 models have been benchmarked on various NVIDIA Jetson devices showing significant performance improvements. For example, the TensorRT format delivers the best inference performance. The table in the Detailed Comparison Tables section provides a comprehensive view of performance metrics like mAP50-95 and inference time across different model formats.
Почему я должен использовать TensorRT для развертывания YOLO11 на NVIDIA Jetson?
TensorRT настоятельно рекомендуется для развертывания моделей YOLO11 на NVIDIA Jetson благодаря своей оптимальной производительности. Он ускоряет проведение выводов за счет использования возможностей GPU Jetson, обеспечивая максимальную эффективность и скорость. Подробнее о том, как конвертировать в TensorRT и выполнять вычисления, читайте в разделе Использование TensorRT на NVIDIA Jetson.
Как установить PyTorch и Torchvision на NVIDIA Jetson?
To install PyTorch and Torchvision on NVIDIA Jetson, first uninstall any existing versions that may have been installed via pip. Then, manually install the compatible PyTorch and Torchvision versions for the Jetson's ARM64 architecture. Detailed instructions for this process are provided in the Installation of PyTorch and Torchvision section.
Каковы наилучшие методы достижения максимальной производительности на NVIDIA Jetson при использовании YOLO11?
Чтобы добиться максимальной производительности на NVIDIA Jetson с YOLO11, следуйте следующим рекомендациям:
- Включите режим MAX Power Mode, чтобы задействовать все ядра CPU и GPU .
- Включите Jetson Clocks, чтобы запустить все ядра на максимальной частоте.
- Установите приложение Jetson Stats для мониторинга системных показателей.
Команды и дополнительные сведения см. в разделе "Лучшие практики при использовании NVIDIA Jetson".