Перейти к содержанию

Краткое руководство пользователя: NVIDIA Jetson с Ultralytics YOLO11

В этом подробном руководстве подробно описано развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson. Кроме того, в нем приведены контрольные показатели производительности, демонстрирующие возможности YOLO11 на этих небольших и мощных устройствах.



Смотреть: Как настроить NVIDIA Jetson с Ultralytics YOLO11

NVIDIA Экосистема Джетсона

Примечание

Данное руководство было протестировано на Seeed Studio reComputer J4012, который основан на NVIDIA Jetson Orin NX 16GB и работает под управлением последней стабильной версии JetPack JP6.0, JetPack JP5.1.3 и Seeed Studio reComputer J1020 v2, который основан на NVIDIA Jetson Nano 4GB и работает под управлением JetPack JP4.6.1. Ожидается, что он будет работать на всех аппаратных линейках NVIDIA Jetson, включая новейшие и устаревшие.

Что такое NVIDIA Джетсон?

NVIDIA Jetson - это серия встраиваемых вычислительных плат, призванных обеспечить ускоренные вычисления в области искусственного интеллекта (ИИ) на граничных устройствах. Эти компактные и мощные устройства построены на базе архитектуры NVIDIA' GPU и способны выполнять сложные алгоритмы ИИ и модели глубокого обучения непосредственно на устройстве, не прибегая к облачным вычислительным ресурсам. Платы Jetson часто используются в робототехнике, автономных транспортных средствах, промышленной автоматизации и других приложениях, где требуется локальное выполнение выводов ИИ с низкой задержкой и высокой эффективностью. Кроме того, эти платы основаны на архитектуре ARM64 и работают с меньшим энергопотреблением по сравнению с традиционными вычислительными устройствами GPU .

NVIDIA Сравнение серий Jetson

Jetson Orin - это последняя итерация семейства NVIDIA Jetson, основанная на архитектуре NVIDIA Ampere, которая обеспечивает значительно более высокую производительность искусственного интеллекта по сравнению с предыдущими поколениями. Ниже в таблице приведено сравнение нескольких устройств Jetson в экосистеме.

Jetson AGX Orin 64GB Jetson Orin NX 16GB Jetson Orin Nano 8GB Jetson AGX Xavier Jetson Xavier NX Jetson Nano
Производительность искусственного интеллекта 275 TOPS 100 TOPS 40 вершин 32 TOPS 21 TOPS 472 ГФЛОПС
GPU 2048-ядерная архитектура NVIDIA Ампер GPU с 64 ядрами Tensor 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor 512-ядерная архитектура NVIDIA Volta GPU с 64 ядрами Tensor 384-ядерная архитектура NVIDIA Volta™ GPU с 48 ядрами Tensor 128-ядерная архитектура NVIDIA Maxwell™ GPU
GPU Максимальная частота 1,3 ГГц 918 МГц 625 МГц 1377 МГц 1100 МГц 921 МГц
CPU 12-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 8-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 6-ядерный Arm® Cortex®-A78AE v8.2 64-bit CPU 1,5 МБ L2 + 4 МБ L3 8-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 8 МБ L2 + 4 МБ L3 6-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 Четырехъядерный процессор Arm® Cortex®-A57 MPCore
CPU Максимальная частота 2,2 ГГц 2,0 ГГц 1,5 ГГц 2,2 ГГц 1,9 ГГц 1,43 ГГц
Память 64 ГБ 256-битной LPDDR5 204,8 ГБ/с 16 ГБ 128-битной LPDDR5 102,4 ГБ/с 8 ГБ 128-битной LPDDR5 68 ГБ/с 32 ГБ 256-битной LPDDR4x 136,5 ГБ/с 8 ГБ 128-битной LPDDR4x 59,7 ГБ/с 4 ГБ 64-битной LPDDR4 25,6 ГБ/с"

Более подробную сравнительную таблицу можно найти в разделе " Технические характеристики" на официальной странице NVIDIA Jetson.

Что такое NVIDIA JetPack?

NVIDIA JetPack SDK на базе модулей Jetson является наиболее полным решением и предоставляет полноценную среду разработки для создания сквозных ускоренных приложений ИИ и сокращает время выхода на рынок. JetPack включает в себя Jetson Linux с загрузчиком, ядро Linux, среду рабочего стола Ubuntu и полный набор библиотек для ускорения вычислений GPU , мультимедиа, графики и компьютерного зрения. Он также включает примеры, документацию и инструменты разработчика как для хост-компьютера, так и для комплекта разработчика, а также поддерживает SDK более высокого уровня, такие как DeepStream для анализа потокового видео, Isaac для робототехники и Riva для разговорного ИИ.

Flash JetPack на NVIDIA Jetson

Первым шагом после получения в руки устройства NVIDIA Jetson будет прошивка NVIDIA JetPack на устройство. Существует несколько различных способов прошивки устройств NVIDIA Jetson.

  1. Если у вас есть официальный комплект разработчика NVIDIA , например Jetson Orin Nano Developer Kit, вы можете загрузить образ и подготовить SD-карту с JetPack для загрузки устройства.
  2. Если у вас есть любой другой NVIDIA Development Kit, вы можете прошить JetPack на устройство с помощью SDK Manager.
  3. Если вы являетесь владельцем устройства Seeed Studio reComputer J4012, вы можете прошить JetPack на прилагаемый SSD, а если вы являетесь владельцем устройства Seeed Studio reComputer J1020 v2, вы можете прошить JetPack на eMMC/ SSD.
  4. Если вы являетесь владельцем любого другого устройства стороннего производителя, работающего на модуле NVIDIA Jetson, рекомендуется выполнить прошивку из командной строки.

Примечание

Для методов 3 и 4, описанных выше, после прошивки системы и загрузки устройства введите "sudo apt update && sudo apt install nvidia-jetpack -y" в терминале устройства, чтобы установить все остальные необходимые компоненты JetPack.

Поддержка JetPack на базе устройства Jetson

В таблице ниже представлены версии NVIDIA JetPack, поддерживаемые различными устройствами NVIDIA Jetson.

JetPack 4 JetPack 5 JetPack 6
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano

Быстрый старт с Docker

Самый быстрый способ начать работу с Ultralytics YOLO11 на NVIDIA Jetson - запустить его с помощью предварительно созданных докер-образов для Jetson. Обратитесь к таблице выше и выберите версию JetPack в соответствии с имеющимся у вас устройством Jetson.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

После этого перейдите к разделу "Использование TensorRT на NVIDIA Jetson".

Начните с родной установки

Для установки "родной" версии без использования Docker, пожалуйста, обратитесь к следующим шагам.

Запуск на JetPack 6.x

Установите пакет Ultralytics

Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать PyTorch модели в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT обеспечит нам максимальную производительность устройств Jetson.

  1. Обновление списка пакетов, установка pip и обновление до последней версии

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Установите ultralytics Пакет pip с дополнительными зависимостями

    pip install ultralytics[export]
    
  3. Перезагрузите устройство

    sudo reboot
    

Установите PyTorch и Torchvision

Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.

Установите torch 2.3.0 и torchvision 0.18 в соответствии с JP6.0

sudo apt-get install libopenmpi-dev libopenblas-base libomp-dev -y
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.3.0-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.18.0a0+6043bc2-cp310-cp310-linux_aarch64.whl

Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.

Установите onnxruntime-gpu

Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64 двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.

Все разные onnxruntime-gpu Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.18.0 с Python3.10 поддержка.

wget https://nvidia.box.com/shared/static/48dtuob7meiw6ebgfsfqakc9vse62sg4.whl -O onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
pip install onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl

Примечание

onnxruntime-gpu автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5 чтобы устранить проблему, выполнив ее:

pip install numpy==1.23.5

Запуск на JetPack 5.x

Установите пакет Ultralytics

Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать модели PyTorch в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT позволит нам добиться максимальной производительности устройств Jetson.

  1. Обновление списка пакетов, установка pip и обновление до последней версии

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Установите ultralytics Пакет pip с дополнительными зависимостями

    pip install ultralytics[export]
    
  3. Перезагрузите устройство

    sudo reboot
    

Установите PyTorch и Torchvision

Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.

  1. Удалите установленные в данный момент PyTorch и Torchvision.

    pip uninstall torch torchvision
    
  2. Установите PyTorch 2.1.0 в соответствии с JP5.1.3.

    sudo apt-get install -y libopenblas-base libopenmpi-dev
    wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    
  3. Установите Torchvision v0.16.2 в соответствии с PyTorch v2.1.0.

    sudo apt install -y libjpeg-dev zlib1g-dev
    git clone https://github.com/pytorch/vision torchvision
    cd torchvision
    git checkout v0.16.2
    python3 setup.py install --user
    

Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.

Установите onnxruntime-gpu

Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64 двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.

Все разные onnxruntime-gpu Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.17.0 с Python3.8 поддержка.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Примечание

onnxruntime-gpu автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5 чтобы устранить проблему, выполнив ее:

pip install numpy==1.23.5

Используйте TensorRT на сайте NVIDIA Jetson.

Из всех форматов экспорта моделей, поддерживаемых Ultralytics, TensorRT обеспечивает наилучшую производительность при работе с устройствами NVIDIA Jetson, и мы рекомендуем использовать TensorRT с Jetson. У нас также есть подробный документ по TensorRT здесь.

Преобразование модели в TensorRT и проведение расчетов

Модель YOLO11n в формате PyTorch преобразуется в формат TensorRT для проведения расчетов с экспортированной моделью.

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine  # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Используйте NVIDIA Deep Learning Accelerator (DLA).

NVIDIA Deep Learning Accelerator (DLA) - это специализированный аппаратный компонент, встроенный в устройства NVIDIA Jetson, который оптимизирует выводы глубокого обучения для повышения энергоэффективности и производительности. Разгружая GPU от задач (освобождая его для более интенсивных процессов), DLA позволяет моделям работать с меньшим энергопотреблением при сохранении высокой пропускной способности, что идеально подходит для встраиваемых систем и приложений ИИ в реальном времени.

Следующие устройства Jetson оснащены оборудованием DLA:

  • Jetson Orin NX 16GB
  • Серия Jetson AGX Orin
  • Серия Jetson AGX Xavier
  • Серия Jetson Xavier NX

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True  # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Примечание

Посетите страницу Экспорт, чтобы получить доступ к дополнительным аргументам при экспорте моделей в различные форматы

NVIDIA Jetson Orin YOLO11 Бенчмарки

YOLO11 Бенчмарки проводились командой Ultralytics на 10 различных форматах моделей, измеряющих скорость и точность: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN. Бенчмарки запускались на Seeed Studio reComputer J4012 на базе устройства Jetson Orin NX 16GB с точностью FP32 и размером входного изображения по умолчанию 640.

Сравнительная таблица

Несмотря на то что все экспортируемые модели работают с NVIDIA Jetson, мы включили в сравнительную таблицу только PyTorch, TorchScript, TensorRT, потому что они используют GPU на Jetson и гарантированно дают наилучшие результаты. Все остальные экспорты используют только CPU , и их производительность не так высока, как у трех вышеперечисленных. Вы можете найти контрольные показатели для всех экспортов в разделе после этой диаграммы.

NVIDIA Экосистема Джетсона

Подробная сравнительная таблица

В таблице ниже представлены результаты бенчмарка для пяти различных моделей (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) в десяти различных форматах (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), с указанием статуса, размера, метрики mAP50-95(B) и времени вывода для каждой комбинации.

Производительность

Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 5.4 0.6176 19.80
TorchScript 10.5 0.6100 13.30
ONNX 10.2 0.6082 67.92
OpenVINO 10.4 0.6082 118.21
TensorRT (FP32) 14.1 0.6100 7.94
TensorRT (FP16) 8.3 0.6082 4.80
TensorRT (INT8) 6.6 0.3256 4.17
TF SavedModel 25.8 0.6082 185.88
TF GraphDef 10.3 0.6082 256.66
TF Lite 10.3 0.6082 284.64
PaddlePaddle 20.4 0.6082 477.41
NCNN 10.2 0.6106 32.18
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 18.4 0.7526 20.20
TorchScript 36.5 0.7416 23.42
ONNX 36.3 0.7416 162.01
OpenVINO 36.4 0.7416 159.61
TensorRT (FP32) 40.3 0.7416 13.93
TensorRT (FP16) 21.7 0.7416 7.47
TensorRT (INT8) 13.6 0.3179 5.66
TF SavedModel 91.1 0.7416 316.46
TF GraphDef 36.4 0.7416 506.71
TF Lite 36.4 0.7416 842.97
PaddlePaddle 72.5 0.7416 1172.57
NCNN 36.2 0.7419 66.00
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 38.8 0.7595 36.70
TorchScript 77.3 0.7643 50.95
ONNX 76.9 0.7643 416.34
OpenVINO 77.1 0.7643 370.99
TensorRT (FP32) 81.5 0.7640 30.49
TensorRT (FP16) 42.2 0.7658 14.93
TensorRT (INT8) 24.3 0.4118 10.32
TF SavedModel 192.7 0.7643 597.08
TF GraphDef 77.0 0.7643 1016.12
TF Lite 77.0 0.7643 2494.60
PaddlePaddle 153.8 0.7643 3218.99
NCNN 76.8 0.7691 192.77
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 49.0 0.7475 47.6
TorchScript 97.6 0.7250 66.36
ONNX 97.0 0.7250 532.58
OpenVINO 97.3 0.7250 477.55
TensorRT (FP32) 101.6 0.7250 38.71
TensorRT (FP16) 52.6 0.7265 19.35
TensorRT (INT8) 31.6 0.3856 13.50
TF SavedModel 243.3 0.7250 895.24
TF GraphDef 97.2 0.7250 1301.19
TF Lite 97.2 0.7250 3202.93
PaddlePaddle 193.9 0.7250 4206.98
NCNN 96.9 0.7252 225.75
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 109.3 0.8288 85.60
TorchScript 218.1 0.8308 121.67
ONNX 217.5 0.8308 1073.14
OpenVINO 217.8 0.8308 955.60
TensorRT (FP32) 221.6 0.8307 75.84
TensorRT (FP16) 113.1 0.8295 35.75
TensorRT (INT8) 62.2 0.4783 22.23
TF SavedModel 545.0 0.8308 1497.40
TF GraphDef 217.8 0.8308 2552.42
TF Lite 217.8 0.8308 7044.58
PaddlePaddle 434.9 0.8308 8386.73
NCNN 217.3 0.8304 486.36

Изучите результаты бенчмарков Seeed Studio, проведенных на различных версиях аппаратного обеспечения NVIDIA Jetson.

Воспроизведите наши результаты

Чтобы воспроизвести приведенные выше эталоны Ultralytics на всех форматах экспорта, выполните этот код:

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
results = model.benchmarks(data="coco8.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml imgsz=640

Обратите внимание, что результаты бенчмарков могут отличаться в зависимости от точной аппаратной и программной конфигурации системы, а также от текущей нагрузки на систему в момент запуска бенчмарков. Для получения наиболее достоверных результатов используйте набор данных с большим количеством изображений, т. е. data='coco8.yaml' (4 val images), ordata='coco.yaml'` (5000 изображений val).

Лучшие практики при использовании NVIDIA Jetson

При использовании NVIDIA Jetson следует придерживаться нескольких рекомендаций, чтобы обеспечить максимальную производительность NVIDIA Jetson под управлением YOLO11.

  1. Включить режим MAX Power

    Включение режима MAX Power Mode на Jetson обеспечит включение всех ядер CPU, GPU .

    sudo nvpmodel -m 0
    
  2. Включить часы Jetson

    Включение Jetson Clocks гарантирует, что все ядра CPU, GPU будут работать на максимальной частоте.

    sudo jetson_clocks
    
  3. Установите приложение Jetson Stats

    Мы можем использовать приложение jetson stats для мониторинга температуры компонентов системы и проверки других системных данных, таких как просмотр CPU, GPU, использование оперативной памяти, изменение режимов питания, установка максимальных часов, проверка информации о JetPack.

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Статистика Джетсона

Следующие шаги

Поздравляем с успешной настройкой YOLO11 на вашем NVIDIA Jetson! Для дальнейшего обучения и поддержки посетите дополнительное руководство на Ultralytics YOLO11 Docs!

ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ

Как развернуть Ultralytics YOLO11 на устройствах NVIDIA Jetson?

Развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson - это простой процесс. Сначала прошейте устройство Jetson с помощью NVIDIA JetPack SDK. Затем воспользуйтесь готовым образом Docker для быстрой настройки или установите необходимые пакеты вручную. Подробные шаги для каждого подхода можно найти в разделах "Быстрый старт с Docker" и "Старт с нативной установкой".

Каких показателей производительности можно ожидать от моделей YOLO11 на устройствах NVIDIA Jetson?

YOLO11 модели были протестированы на различных устройствах NVIDIA Jetson и показали значительный прирост производительности. Например, формат TensorRT обеспечивает наилучшую производительность при выводе данных. Таблица в разделе " Подробная таблица сравнения" дает полное представление о таких показателях производительности, как mAP50-95 и время вывода для различных форматов моделей.

Почему я должен использовать TensorRT для развертывания YOLO11 на NVIDIA Jetson?

TensorRT настоятельно рекомендуется для развертывания моделей YOLO11 на NVIDIA Jetson благодаря своей оптимальной производительности. Он ускоряет проведение выводов за счет использования возможностей GPU Jetson, обеспечивая максимальную эффективность и скорость. Подробнее о том, как конвертировать в TensorRT и выполнять вычисления, читайте в разделе Использование TensorRT на NVIDIA Jetson.

Как установить PyTorch и Torchvision на NVIDIA Jetson?

Чтобы установить PyTorch и Torchvision на NVIDIA Jetson, сначала удалите все существующие версии, которые могли быть установлены с помощью pip. Затем вручную установите совместимые версии PyTorch и Torchvision для архитектуры ARM64 Jetson. Подробные инструкции по этому процессу приведены в разделе Установка PyTorch и Torchvision.

Каковы наилучшие методы достижения максимальной производительности на NVIDIA Jetson при использовании YOLO11?

Чтобы добиться максимальной производительности на NVIDIA Jetson с YOLO11, следуйте следующим рекомендациям:

  1. Включите режим MAX Power Mode, чтобы задействовать все ядра CPU и GPU .
  2. Включите Jetson Clocks, чтобы запустить все ядра на максимальной частоте.
  3. Установите приложение Jetson Stats для мониторинга системных показателей.

Команды и дополнительные сведения см. в разделе "Лучшие практики при использовании NVIDIA Jetson".

📅 Создано 8 месяцев назад ✏️ Обновлено 21 день назад

Комментарии