Краткое руководство пользователя: NVIDIA Jetson с Ultralytics YOLO11
В этом подробном руководстве подробно описано развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson. Кроме того, в нем приведены контрольные показатели производительности, демонстрирующие возможности YOLO11 на этих небольших и мощных устройствах.
Смотреть: Как настроить NVIDIA Jetson с Ultralytics YOLO11
Примечание
Данное руководство было протестировано на Seeed Studio reComputer J4012, который основан на NVIDIA Jetson Orin NX 16GB и работает под управлением последней стабильной версии JetPack JP6.0, JetPack JP5.1.3 и Seeed Studio reComputer J1020 v2, который основан на NVIDIA Jetson Nano 4GB и работает под управлением JetPack JP4.6.1. Ожидается, что он будет работать на всех аппаратных линейках NVIDIA Jetson, включая новейшие и устаревшие.
Что такое NVIDIA Джетсон?
NVIDIA Jetson - это серия встраиваемых вычислительных плат, призванных обеспечить ускоренные вычисления в области искусственного интеллекта (ИИ) на граничных устройствах. Эти компактные и мощные устройства построены на базе архитектуры NVIDIA' GPU и способны выполнять сложные алгоритмы ИИ и модели глубокого обучения непосредственно на устройстве, не прибегая к облачным вычислительным ресурсам. Платы Jetson часто используются в робототехнике, автономных транспортных средствах, промышленной автоматизации и других приложениях, где требуется локальное выполнение выводов ИИ с низкой задержкой и высокой эффективностью. Кроме того, эти платы основаны на архитектуре ARM64 и работают с меньшим энергопотреблением по сравнению с традиционными вычислительными устройствами GPU .
NVIDIA Сравнение серий Jetson
Jetson Orin - это последняя итерация семейства NVIDIA Jetson, основанная на архитектуре NVIDIA Ampere, которая обеспечивает значительно более высокую производительность искусственного интеллекта по сравнению с предыдущими поколениями. Ниже в таблице приведено сравнение нескольких устройств Jetson в экосистеме.
Jetson AGX Orin 64GB | Jetson Orin NX 16GB | Jetson Orin Nano 8GB | Jetson AGX Xavier | Jetson Xavier NX | Jetson Nano | |
---|---|---|---|---|---|---|
Производительность искусственного интеллекта | 275 TOPS | 100 TOPS | 40 вершин | 32 TOPS | 21 TOPS | 472 ГФЛОПС |
GPU | 2048-ядерная архитектура NVIDIA Ампер GPU с 64 ядрами Tensor | 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor | 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor | 512-ядерная архитектура NVIDIA Volta GPU с 64 ядрами Tensor | 384-ядерная архитектура NVIDIA Volta™ GPU с 48 ядрами Tensor | 128-ядерная архитектура NVIDIA Maxwell™ GPU |
GPU Максимальная частота | 1,3 ГГц | 918 МГц | 625 МГц | 1377 МГц | 1100 МГц | 921 МГц |
CPU | 12-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 | 8-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 | 6-ядерный Arm® Cortex®-A78AE v8.2 64-bit CPU 1,5 МБ L2 + 4 МБ L3 | 8-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 8 МБ L2 + 4 МБ L3 | 6-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 | Четырехъядерный процессор Arm® Cortex®-A57 MPCore |
CPU Максимальная частота | 2,2 ГГц | 2,0 ГГц | 1,5 ГГц | 2,2 ГГц | 1,9 ГГц | 1,43 ГГц |
Память | 64 ГБ 256-битной LPDDR5 204,8 ГБ/с | 16 ГБ 128-битной LPDDR5 102,4 ГБ/с | 8 ГБ 128-битной LPDDR5 68 ГБ/с | 32 ГБ 256-битной LPDDR4x 136,5 ГБ/с | 8 ГБ 128-битной LPDDR4x 59,7 ГБ/с | 4 ГБ 64-битной LPDDR4 25,6 ГБ/с" |
Более подробную сравнительную таблицу можно найти в разделе " Технические характеристики" на официальной странице NVIDIA Jetson.
Что такое NVIDIA JetPack?
NVIDIA JetPack SDK на базе модулей Jetson является наиболее полным решением и предоставляет полноценную среду разработки для создания сквозных ускоренных приложений ИИ и сокращает время выхода на рынок. JetPack включает в себя Jetson Linux с загрузчиком, ядро Linux, среду рабочего стола Ubuntu и полный набор библиотек для ускорения вычислений GPU , мультимедиа, графики и компьютерного зрения. Он также включает примеры, документацию и инструменты разработчика как для хост-компьютера, так и для комплекта разработчика, а также поддерживает SDK более высокого уровня, такие как DeepStream для анализа потокового видео, Isaac для робототехники и Riva для разговорного ИИ.
Flash JetPack на NVIDIA Jetson
Первым шагом после получения в руки устройства NVIDIA Jetson будет прошивка NVIDIA JetPack на устройство. Существует несколько различных способов прошивки устройств NVIDIA Jetson.
- Если у вас есть официальный комплект разработчика NVIDIA , например Jetson Orin Nano Developer Kit, вы можете загрузить образ и подготовить SD-карту с JetPack для загрузки устройства.
- Если у вас есть любой другой NVIDIA Development Kit, вы можете прошить JetPack на устройство с помощью SDK Manager.
- Если вы являетесь владельцем устройства Seeed Studio reComputer J4012, вы можете прошить JetPack на прилагаемый SSD, а если вы являетесь владельцем устройства Seeed Studio reComputer J1020 v2, вы можете прошить JetPack на eMMC/ SSD.
- Если вы являетесь владельцем любого другого устройства стороннего производителя, работающего на модуле NVIDIA Jetson, рекомендуется выполнить прошивку из командной строки.
Примечание
Для методов 3 и 4, описанных выше, после прошивки системы и загрузки устройства введите "sudo apt update && sudo apt install nvidia-jetpack -y" в терминале устройства, чтобы установить все остальные необходимые компоненты JetPack.
Поддержка JetPack на базе устройства Jetson
В таблице ниже представлены версии NVIDIA JetPack, поддерживаемые различными устройствами NVIDIA Jetson.
JetPack 4 | JetPack 5 | JetPack 6 | |
---|---|---|---|
Jetson Nano | ✅ | ❌ | ❌ |
Jetson TX2 | ✅ | ❌ | ❌ |
Jetson Xavier NX | ✅ | ✅ | ❌ |
Jetson AGX Xavier | ✅ | ✅ | ❌ |
Jetson AGX Orin | ❌ | ✅ | ✅ |
Jetson Orin NX | ❌ | ✅ | ✅ |
Jetson Orin Nano | ❌ | ✅ | ✅ |
Быстрый старт с Docker
Самый быстрый способ начать работу с Ultralytics YOLO11 на NVIDIA Jetson - запустить его с помощью предварительно созданных докер-образов для Jetson. Обратитесь к таблице выше и выберите версию JetPack в соответствии с имеющимся у вас устройством Jetson.
После этого перейдите к разделу "Использование TensorRT на NVIDIA Jetson".
Начните с родной установки
Для установки "родной" версии без использования Docker, пожалуйста, обратитесь к следующим шагам.
Запуск на JetPack 6.x
Установите пакет Ultralytics
Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать PyTorch модели в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT обеспечит нам максимальную производительность устройств Jetson.
-
Обновление списка пакетов, установка pip и обновление до последней версии
-
Установите
ultralytics
Пакет pip с дополнительными зависимостями -
Перезагрузите устройство
Установите PyTorch и Torchvision
Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.
Установите torch 2.3.0
и torchvision 0.18
в соответствии с JP6.0
sudo apt-get install libopenmpi-dev libopenblas-base libomp-dev -y
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.3.0-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.18.0a0+6043bc2-cp310-cp310-linux_aarch64.whl
Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.
Установите onnxruntime-gpu
Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64
двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.
Все разные onnxruntime-gpu
Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.18.0
с Python3.10
поддержка.
wget https://nvidia.box.com/shared/static/48dtuob7meiw6ebgfsfqakc9vse62sg4.whl -O onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
pip install onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
Примечание
onnxruntime-gpu
автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5
чтобы устранить проблему, выполнив ее:
pip install numpy==1.23.5
Запуск на JetPack 5.x
Установите пакет Ultralytics
Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать модели PyTorch в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT позволит нам добиться максимальной производительности устройств Jetson.
-
Обновление списка пакетов, установка pip и обновление до последней версии
-
Установите
ultralytics
Пакет pip с дополнительными зависимостями -
Перезагрузите устройство
Установите PyTorch и Torchvision
Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.
-
Удалите установленные в данный момент PyTorch и Torchvision.
-
Установите PyTorch 2.1.0 в соответствии с JP5.1.3.
sudo apt-get install -y libopenblas-base libopenmpi-dev wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
-
Установите Torchvision v0.16.2 в соответствии с PyTorch v2.1.0.
Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.
Установите onnxruntime-gpu
Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64
двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.
Все разные onnxruntime-gpu
Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.17.0
с Python3.8
поддержка.
wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
Примечание
onnxruntime-gpu
автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5
чтобы устранить проблему, выполнив ее:
pip install numpy==1.23.5
Используйте TensorRT на сайте NVIDIA Jetson.
Из всех форматов экспорта моделей, поддерживаемых Ultralytics, TensorRT обеспечивает наилучшую производительность при работе с устройствами NVIDIA Jetson, и мы рекомендуем использовать TensorRT с Jetson. У нас также есть подробный документ по TensorRT здесь.
Преобразование модели в TensorRT и проведение расчетов
Модель YOLO11n в формате PyTorch преобразуется в формат TensorRT для проведения расчетов с экспортированной моделью.
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
Используйте NVIDIA Deep Learning Accelerator (DLA).
NVIDIA Deep Learning Accelerator (DLA) - это специализированный аппаратный компонент, встроенный в устройства NVIDIA Jetson, который оптимизирует выводы глубокого обучения для повышения энергоэффективности и производительности. Разгружая GPU от задач (освобождая его для более интенсивных процессов), DLA позволяет моделям работать с меньшим энергопотреблением при сохранении высокой пропускной способности, что идеально подходит для встраиваемых систем и приложений ИИ в реальном времени.
Следующие устройства Jetson оснащены оборудованием DLA:
- Jetson Orin NX 16GB
- Серия Jetson AGX Orin
- Серия Jetson AGX Xavier
- Серия Jetson Xavier NX
Пример
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True) # dla:0 or dla:1 corresponds to the DLA cores
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores
# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
Примечание
Посетите страницу Экспорт, чтобы получить доступ к дополнительным аргументам при экспорте моделей в различные форматы
NVIDIA Jetson Orin YOLO11 Бенчмарки
YOLO11 Бенчмарки проводились командой Ultralytics на 10 различных форматах моделей, измеряющих скорость и точность: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN. Бенчмарки запускались на Seeed Studio reComputer J4012 на базе устройства Jetson Orin NX 16GB с точностью FP32 и размером входного изображения по умолчанию 640.
Сравнительная таблица
Несмотря на то что все экспортируемые модели работают с NVIDIA Jetson, мы включили в сравнительную таблицу только PyTorch, TorchScript, TensorRT, потому что они используют GPU на Jetson и гарантированно дают наилучшие результаты. Все остальные экспорты используют только CPU , и их производительность не так высока, как у трех вышеперечисленных. Вы можете найти контрольные показатели для всех экспортов в разделе после этой диаграммы.
Подробная сравнительная таблица
В таблице ниже представлены результаты бенчмарка для пяти различных моделей (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) в десяти различных форматах (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), с указанием статуса, размера, метрики mAP50-95(B) и времени вывода для каждой комбинации.
Производительность
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 19.80 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.30 |
ONNX | ✅ | 10.2 | 0.6082 | 67.92 |
OpenVINO | ✅ | 10.4 | 0.6082 | 118.21 |
TensorRT (FP32) | ✅ | 14.1 | 0.6100 | 7.94 |
TensorRT (FP16) | ✅ | 8.3 | 0.6082 | 4.80 |
TensorRT (INT8) | ✅ | 6.6 | 0.3256 | 4.17 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 185.88 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 256.66 |
TF Lite | ✅ | 10.3 | 0.6082 | 284.64 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 477.41 |
NCNN | ✅ | 10.2 | 0.6106 | 32.18 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 20.20 |
TorchScript | ✅ | 36.5 | 0.7416 | 23.42 |
ONNX | ✅ | 36.3 | 0.7416 | 162.01 |
OpenVINO | ✅ | 36.4 | 0.7416 | 159.61 |
TensorRT (FP32) | ✅ | 40.3 | 0.7416 | 13.93 |
TensorRT (FP16) | ✅ | 21.7 | 0.7416 | 7.47 |
TensorRT (INT8) | ✅ | 13.6 | 0.3179 | 5.66 |
TF SavedModel | ✅ | 91.1 | 0.7416 | 316.46 |
TF GraphDef | ✅ | 36.4 | 0.7416 | 506.71 |
TF Lite | ✅ | 36.4 | 0.7416 | 842.97 |
PaddlePaddle | ✅ | 72.5 | 0.7416 | 1172.57 |
NCNN | ✅ | 36.2 | 0.7419 | 66.00 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7595 | 36.70 |
TorchScript | ✅ | 77.3 | 0.7643 | 50.95 |
ONNX | ✅ | 76.9 | 0.7643 | 416.34 |
OpenVINO | ✅ | 77.1 | 0.7643 | 370.99 |
TensorRT (FP32) | ✅ | 81.5 | 0.7640 | 30.49 |
TensorRT (FP16) | ✅ | 42.2 | 0.7658 | 14.93 |
TensorRT (INT8) | ✅ | 24.3 | 0.4118 | 10.32 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 597.08 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 1016.12 |
TF Lite | ✅ | 77.0 | 0.7643 | 2494.60 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3218.99 |
NCNN | ✅ | 76.8 | 0.7691 | 192.77 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 47.6 |
TorchScript | ✅ | 97.6 | 0.7250 | 66.36 |
ONNX | ✅ | 97.0 | 0.7250 | 532.58 |
OpenVINO | ✅ | 97.3 | 0.7250 | 477.55 |
TensorRT (FP32) | ✅ | 101.6 | 0.7250 | 38.71 |
TensorRT (FP16) | ✅ | 52.6 | 0.7265 | 19.35 |
TensorRT (INT8) | ✅ | 31.6 | 0.3856 | 13.50 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 895.24 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1301.19 |
TF Lite | ✅ | 97.2 | 0.7250 | 3202.93 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4206.98 |
NCNN | ✅ | 96.9 | 0.7252 | 225.75 |
Формат | Статус | Размер на диске (МБ) | mAP50-95(B) | Время вывода (мс/им) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 85.60 |
TorchScript | ✅ | 218.1 | 0.8308 | 121.67 |
ONNX | ✅ | 217.5 | 0.8308 | 1073.14 |
OpenVINO | ✅ | 217.8 | 0.8308 | 955.60 |
TensorRT (FP32) | ✅ | 221.6 | 0.8307 | 75.84 |
TensorRT (FP16) | ✅ | 113.1 | 0.8295 | 35.75 |
TensorRT (INT8) | ✅ | 62.2 | 0.4783 | 22.23 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1497.40 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2552.42 |
TF Lite | ✅ | 217.8 | 0.8308 | 7044.58 |
PaddlePaddle | ✅ | 434.9 | 0.8308 | 8386.73 |
NCNN | ✅ | 217.3 | 0.8304 | 486.36 |
Изучите результаты бенчмарков Seeed Studio, проведенных на различных версиях аппаратного обеспечения NVIDIA Jetson.
Воспроизведите наши результаты
Чтобы воспроизвести приведенные выше эталоны Ultralytics на всех форматах экспорта, выполните этот код:
Пример
Обратите внимание, что результаты бенчмарков могут отличаться в зависимости от точной аппаратной и программной конфигурации системы, а также от текущей нагрузки на систему в момент запуска бенчмарков. Для получения наиболее достоверных результатов используйте набор данных с большим количеством изображений, т. е. data='coco8.yaml' (4 val images), or
data='coco.yaml'` (5000 изображений val).
Лучшие практики при использовании NVIDIA Jetson
При использовании NVIDIA Jetson следует придерживаться нескольких рекомендаций, чтобы обеспечить максимальную производительность NVIDIA Jetson под управлением YOLO11.
-
Включить режим MAX Power
Включение режима MAX Power Mode на Jetson обеспечит включение всех ядер CPU, GPU .
-
Включить часы Jetson
Включение Jetson Clocks гарантирует, что все ядра CPU, GPU будут работать на максимальной частоте.
-
Установите приложение Jetson Stats
Мы можем использовать приложение jetson stats для мониторинга температуры компонентов системы и проверки других системных данных, таких как просмотр CPU, GPU, использование оперативной памяти, изменение режимов питания, установка максимальных часов, проверка информации о JetPack.
Следующие шаги
Поздравляем с успешной настройкой YOLO11 на вашем NVIDIA Jetson! Для дальнейшего обучения и поддержки посетите дополнительное руководство на Ultralytics YOLO11 Docs!
ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ
Как развернуть Ultralytics YOLO11 на устройствах NVIDIA Jetson?
Развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson - это простой процесс. Сначала прошейте устройство Jetson с помощью NVIDIA JetPack SDK. Затем воспользуйтесь готовым образом Docker для быстрой настройки или установите необходимые пакеты вручную. Подробные шаги для каждого подхода можно найти в разделах "Быстрый старт с Docker" и "Старт с нативной установкой".
Каких показателей производительности можно ожидать от моделей YOLO11 на устройствах NVIDIA Jetson?
YOLO11 модели были протестированы на различных устройствах NVIDIA Jetson и показали значительный прирост производительности. Например, формат TensorRT обеспечивает наилучшую производительность при выводе данных. Таблица в разделе " Подробная таблица сравнения" дает полное представление о таких показателях производительности, как mAP50-95 и время вывода для различных форматов моделей.
Почему я должен использовать TensorRT для развертывания YOLO11 на NVIDIA Jetson?
TensorRT настоятельно рекомендуется для развертывания моделей YOLO11 на NVIDIA Jetson благодаря своей оптимальной производительности. Он ускоряет проведение выводов за счет использования возможностей GPU Jetson, обеспечивая максимальную эффективность и скорость. Подробнее о том, как конвертировать в TensorRT и выполнять вычисления, читайте в разделе Использование TensorRT на NVIDIA Jetson.
Как установить PyTorch и Torchvision на NVIDIA Jetson?
Чтобы установить PyTorch и Torchvision на NVIDIA Jetson, сначала удалите все существующие версии, которые могли быть установлены с помощью pip. Затем вручную установите совместимые версии PyTorch и Torchvision для архитектуры ARM64 Jetson. Подробные инструкции по этому процессу приведены в разделе Установка PyTorch и Torchvision.
Каковы наилучшие методы достижения максимальной производительности на NVIDIA Jetson при использовании YOLO11?
Чтобы добиться максимальной производительности на NVIDIA Jetson с YOLO11, следуйте следующим рекомендациям:
- Включите режим MAX Power Mode, чтобы задействовать все ядра CPU и GPU .
- Включите Jetson Clocks, чтобы запустить все ядра на максимальной частоте.
- Установите приложение Jetson Stats для мониторинга системных показателей.
Команды и дополнительные сведения см. в разделе "Лучшие практики при использовании NVIDIA Jetson".