Перейти к содержанию

Краткое руководство пользователя: NVIDIA Jetson с Ultralytics YOLO11

В этом подробном руководстве подробно описано развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson. Кроме того, в нем приведены контрольные показатели производительности, демонстрирующие возможности YOLO11 на этих небольших и мощных устройствах.

New product support

We have updated this guide with the latest NVIDIA Jetson Orin Nano Super Developer Kit which delivers up to 67 TOPS of AI performance — a 1.7X improvement over its predecessor — to seamlessly run the most popular AI models.



Смотреть: Как настроить NVIDIA Jetson с Ultralytics YOLO11

NVIDIA Экосистема Джетсона

Примечание

This guide has been tested with NVIDIA Jetson Orin Nano Super Developer Kit running the latest stable JetPack release of JP6.1, Seeed Studio reComputer J4012 which is based on NVIDIA Jetson Orin NX 16GB running JetPack release of JP6.0/ JetPack release of JP5.1.3 and Seeed Studio reComputer J1020 v2 which is based on NVIDIA Jetson Nano 4GB running JetPack release of JP4.6.1. It is expected to work across all the NVIDIA Jetson hardware lineup including latest and legacy.

Что такое NVIDIA Джетсон?

NVIDIA Jetson - это серия встраиваемых вычислительных плат, призванных обеспечить ускоренные вычисления в области искусственного интеллекта (ИИ) на граничных устройствах. Эти компактные и мощные устройства построены на базе архитектуры NVIDIA' GPU и способны выполнять сложные алгоритмы ИИ и модели глубокого обучения непосредственно на устройстве, не прибегая к облачным вычислительным ресурсам. Платы Jetson часто используются в робототехнике, автономных транспортных средствах, промышленной автоматизации и других приложениях, где требуется локальное выполнение выводов ИИ с низкой задержкой и высокой эффективностью. Кроме того, эти платы основаны на архитектуре ARM64 и работают с меньшим энергопотреблением по сравнению с традиционными вычислительными устройствами GPU .

NVIDIA Сравнение серий Jetson

Jetson Orin - это последняя итерация семейства NVIDIA Jetson, основанная на архитектуре NVIDIA Ampere, которая обеспечивает значительно более высокую производительность искусственного интеллекта по сравнению с предыдущими поколениями. Ниже в таблице приведено сравнение нескольких устройств Jetson в экосистеме.

Jetson AGX Orin 64GB Jetson Orin NX 16GB Jetson Orin Nano Super Jetson AGX Xavier Jetson Xavier NX Jetson Nano
Производительность искусственного интеллекта 275 TOPS 100 TOPS 67 TOPs 32 TOPS 21 TOPS 472 ГФЛОПС
GPU 2048-ядерная архитектура NVIDIA Ампер GPU с 64 ядрами Tensor 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor 1024-ядерная архитектура NVIDIA Ampere GPU с 32 ядрами Tensor 512-ядерная архитектура NVIDIA Volta GPU с 64 ядрами Tensor 384-ядерная архитектура NVIDIA Volta™ GPU с 48 ядрами Tensor 128-ядерная архитектура NVIDIA Maxwell™ GPU
GPU Максимальная частота 1,3 ГГц 918 МГц 1020 MHz 1377 МГц 1100 МГц 921 МГц
CPU 12-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 8-ядерный NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 6-ядерный Arm® Cortex®-A78AE v8.2 64-bit CPU 1,5 МБ L2 + 4 МБ L3 8-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 8 МБ L2 + 4 МБ L3 6-ядерный NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 Четырехъядерный процессор Arm® Cortex®-A57 MPCore
CPU Максимальная частота 2,2 ГГц 2,0 ГГц 1.7 GHz 2,2 ГГц 1,9 ГГц 1,43 ГГц
Память 64 ГБ 256-битной LPDDR5 204,8 ГБ/с 16 ГБ 128-битной LPDDR5 102,4 ГБ/с 8GB 128-bit LPDDR5 102 GB/s 32 ГБ 256-битной LPDDR4x 136,5 ГБ/с 8 ГБ 128-битной LPDDR4x 59,7 ГБ/с 4 ГБ 64-битной LPDDR4 25,6 ГБ/с"

Более подробную сравнительную таблицу можно найти в разделе " Технические характеристики" на официальной странице NVIDIA Jetson.

Что такое NVIDIA JetPack?

NVIDIA JetPack SDK на базе модулей Jetson является наиболее полным решением и предоставляет полноценную среду разработки для создания сквозных ускоренных приложений ИИ и сокращает время выхода на рынок. JetPack включает в себя Jetson Linux с загрузчиком, ядро Linux, среду рабочего стола Ubuntu и полный набор библиотек для ускорения вычислений GPU , мультимедиа, графики и компьютерного зрения. Он также включает примеры, документацию и инструменты разработчика как для хост-компьютера, так и для комплекта разработчика, а также поддерживает SDK более высокого уровня, такие как DeepStream для анализа потокового видео, Isaac для робототехники и Riva для разговорного ИИ.

Flash JetPack на NVIDIA Jetson

Первым шагом после получения в руки устройства NVIDIA Jetson будет прошивка NVIDIA JetPack на устройство. Существует несколько различных способов прошивки устройств NVIDIA Jetson.

  1. Если у вас есть официальный комплект разработчика NVIDIA , например Jetson Orin Nano Developer Kit, вы можете загрузить образ и подготовить SD-карту с JetPack для загрузки устройства.
  2. Если у вас есть любой другой NVIDIA Development Kit, вы можете прошить JetPack на устройство с помощью SDK Manager.
  3. Если вы являетесь владельцем устройства Seeed Studio reComputer J4012, вы можете прошить JetPack на прилагаемый SSD, а если вы являетесь владельцем устройства Seeed Studio reComputer J1020 v2, вы можете прошить JetPack на eMMC/ SSD.
  4. Если вы являетесь владельцем любого другого устройства стороннего производителя, работающего на модуле NVIDIA Jetson, рекомендуется выполнить прошивку из командной строки.

Примечание

Для методов 3 и 4, описанных выше, после прошивки системы и загрузки устройства введите "sudo apt update && sudo apt install nvidia-jetpack -y" в терминале устройства, чтобы установить все остальные необходимые компоненты JetPack.

Поддержка JetPack на базе устройства Jetson

В таблице ниже представлены версии NVIDIA JetPack, поддерживаемые различными устройствами NVIDIA Jetson.

JetPack 4 JetPack 5 JetPack 6
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano

Быстрый старт с Docker

Самый быстрый способ начать работу с Ultralytics YOLO11 на NVIDIA Jetson - запустить его с помощью предварительно созданных докер-образов для Jetson. Обратитесь к таблице выше и выберите версию JetPack в соответствии с имеющимся у вас устройством Jetson.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

После этого перейдите к разделу "Использование TensorRT на NVIDIA Jetson".

Начните с родной установки

Для установки "родной" версии без использования Docker, пожалуйста, обратитесь к следующим шагам.

Run on JetPack 6.1

Установите пакет Ultralytics

Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать PyTorch модели в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT обеспечит нам максимальную производительность устройств Jetson.

  1. Обновление списка пакетов, установка pip и обновление до последней версии

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Установите ultralytics Пакет pip с дополнительными зависимостями

    pip install ultralytics[export]
    
  3. Перезагрузите устройство

    sudo reboot
    

Установите PyTorch и Torchvision

Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.

Установите torch 2.5.0 и torchvision 0.20 according to JP6.1

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl

Примечание

Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.

Установите cuSPARSELt to fix a dependency issue with torch 2.5.0

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev

Установите onnxruntime-gpu

Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64 двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.

Все разные onnxruntime-gpu Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.20.0 с Python3.10 поддержка.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl

Примечание

onnxruntime-gpu автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5 чтобы устранить проблему, выполнив ее:

pip install numpy==1.23.5

Run on JetPack 5.1.2

Установите пакет Ultralytics

Здесь мы установим пакет Ultralytics на Jetson с дополнительными зависимостями, чтобы мы могли экспортировать модели PyTorch в другие различные форматы. В основном мы сосредоточимся на экспортеNVIDIA TensorRT , потому что TensorRT позволит нам добиться максимальной производительности устройств Jetson.

  1. Обновление списка пакетов, установка pip и обновление до последней версии

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Установите ultralytics Пакет pip с дополнительными зависимостями

    pip install ultralytics[export]
    
  3. Перезагрузите устройство

    sudo reboot
    

Установите PyTorch и Torchvision

Приведенная выше установка ultralytics приведет к установке Torch и Torchvision. Однако эти два пакета, установленные с помощью pip, несовместимы для работы на платформе Jetson, которая основана на архитектуре ARM64. Поэтому нам нужно вручную установить предварительно собранный PyTorch pip wheel и скомпилировать/установить Torchvision из исходного кода.

  1. Удалите установленные в данный момент PyTorch и Torchvision.

    pip uninstall torch torchvision
    
  2. Установите torch 2.1.0 и torchvision 0.16.2 according to JP5.1.2

    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.16.2+c6f3977-cp38-cp38-linux_aarch64.whl
    

Примечание

Посетите страницуPyTorch для Jetson, чтобы получить доступ ко всем различным версиям PyTorch для разных версий JetPack. Для получения более подробной информации о совместимости PyTorch и Torchvision посетите страницуPyTorch и Torchvision.

Установите onnxruntime-gpu

Сайт onnxruntime-gpu Пакет, размещенный в PyPI, не имеет aarch64 двоичные файлы для Jetson. Поэтому нам нужно вручную установить этот пакет. Этот пакет необходим для некоторых видов экспорта.

Все разные onnxruntime-gpu Перечислены пакеты, соответствующие различным версиям JetPack и Python . здесь. Однако здесь мы загрузим и установим onnxruntime-gpu 1.17.0 с Python3.8 поддержка.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Примечание

onnxruntime-gpu автоматически вернет версию numpy на последнюю. Поэтому нам нужно переустановить numpy на 1.23.5 чтобы устранить проблему, выполнив ее:

pip install numpy==1.23.5

Используйте TensorRT на сайте NVIDIA Jetson.

Из всех форматов экспорта моделей, поддерживаемых Ultralytics, TensorRT обеспечивает наилучшую производительность при работе с устройствами NVIDIA Jetson, и мы рекомендуем использовать TensorRT с Jetson. У нас также есть подробный документ по TensorRT здесь.

Преобразование модели в TensorRT и проведение расчетов

Модель YOLO11n в формате PyTorch преобразуется в формат TensorRT для проведения расчетов с экспортированной моделью.

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine  # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Примечание

Посетите страницу Экспорт, чтобы получить доступ к дополнительным аргументам при экспорте моделей в различные форматы

Используйте NVIDIA Deep Learning Accelerator (DLA).

NVIDIA Deep Learning Accelerator (DLA) - это специализированный аппаратный компонент, встроенный в устройства NVIDIA Jetson, который оптимизирует выводы глубокого обучения для повышения энергоэффективности и производительности. Разгружая GPU от задач (освобождая его для более интенсивных процессов), DLA позволяет моделям работать с меньшим энергопотреблением при сохранении высокой пропускной способности, что идеально подходит для встраиваемых систем и приложений ИИ в реальном времени.

Следующие устройства Jetson оснащены оборудованием DLA:

  • Jetson Orin NX 16GB
  • Серия Jetson AGX Orin
  • Серия Jetson AGX Xavier
  • Серия Jetson Xavier NX

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True  # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Примечание

При использовании экспорта DLA некоторые слои могут не поддерживаться для работы на DLA и будут возвращаться на GPU для выполнения. Такой возврат может внести дополнительные задержки и повлиять на общую производительность выводов. Поэтому DLA не предназначен для уменьшения задержек в выводах по сравнению с TensorRT , работающим полностью на GPU. Вместо этого его основная цель - увеличить пропускную способность и повысить энергоэффективность.

NVIDIA Jetson Orin YOLO11 Бенчмарки

YOLO11 benchmarks were run by the Ultralytics team on 10 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, PaddlePaddle, NCNN. Benchmarks were run on both NVIDIA Jetson Orin Nano Super Developer Kit and Seeed Studio reComputer J4012 powered by Jetson Orin NX 16GB device at FP32 precision with default input image size of 640.

Comparison Charts

Несмотря на то что все экспортируемые модели работают с NVIDIA Jetson, мы включили в сравнительную таблицу только PyTorch, TorchScript, TensorRT, потому что они используют GPU на Jetson и гарантированно дают наилучшие результаты. Все остальные экспорты используют только CPU , и их производительность не так высока, как у трех вышеперечисленных. Вы можете найти контрольные показатели для всех экспортов в разделе после этой диаграммы.

NVIDIA Jetson Orin Nano Super Developer Kit

Jetson Orin Nano Super Benchmarks
Benchmarked with Ultralytics 8.3.51

NVIDIA Jetson Orin NX 16GB

Jetson Orin NX 16GB Benchmarks
Benchmarked with Ultralytics 8.3.51

Detailed Comparison Tables

В таблице ниже представлены результаты бенчмарка для пяти различных моделей (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) в десяти различных форматах (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), с указанием статуса, размера, метрики mAP50-95(B) и времени вывода для каждой комбинации.

NVIDIA Jetson Orin Nano Super Developer Kit

Производительность

Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 5.4 0.6176 21.3
TorchScript 10.5 0.6100 13.40
ONNX 10.2 0.6100 7.94
OpenVINO 10.4 0.6091 57.36
TensorRT (FP32) 11.9 0.6082 7.60
TensorRT (FP16) 8.3 0.6096 4.91
TensorRT (INT8) 5.6 0.3180 3.91
TF SavedModel 25.8 0.6082 223.98
TF GraphDef 10.3 0.6082 289.95
TF Lite 10.3 0.6082 328.29
PaddlePaddle 20.4 0.6082 530.46
MNN 10.1 0.6120 74.75
NCNN 10.2 0.6106 46.12
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 18.4 0.7526 22.00
TorchScript 36.5 0.7400 21.35
ONNX 36.3 0.7400 13.91
OpenVINO 36.4 0.7391 126.95
TensorRT (FP32) 38.0 0.7400 13.29
TensorRT (FP16) 21.3 0.7431 7.30
TensorRT (INT8) 12.2 0.3243 5.25
TF SavedModel 91.1 0.7400 406.73
TF GraphDef 36.4 0.7400 629.80
TF Lite 36.4 0.7400 953.98
PaddlePaddle 72.5 0.7400 1311.67
MNN 36.2 0.7392 187.66
NCNN 36.2 0.7403 122.02
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 38.8 0.7598 33.00
TorchScript 77.3 0.7643 48.17
ONNX 76.9 0.7641 29.31
OpenVINO 77.1 0.7642 313.49
TensorRT (FP32) 78.7 0.7641 28.21
TensorRT (FP16) 41.8 0.7653 13.99
TensorRT (INT8) 23.2 0.4194 9.58
TF SavedModel 192.7 0.7643 802.30
TF GraphDef 77.0 0.7643 1335.42
TF Lite 77.0 0.7643 2842.42
PaddlePaddle 153.8 0.7643 3644.29
MNN 76.8 0.7648 503.90
NCNN 76.8 0.7674 298.78
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 49.0 0.7475 43.00
TorchScript 97.6 0.7250 62.94
ONNX 97.0 0.7250 36.33
OpenVINO 97.3 0.7226 387.72
TensorRT (FP32) 99.1 0.7250 35.59
TensorRT (FP16) 52.0 0.7265 17.57
TensorRT (INT8) 31.0 0.4033 12.37
TF SavedModel 243.3 0.7250 1116.20
TF GraphDef 97.2 0.7250 1603.32
TF Lite 97.2 0.7250 3607.51
PaddlePaddle 193.9 0.7250 4890.90
MNN 96.9 0.7222 619.04
NCNN 96.9 0.7252 352.85
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 109.3 0.8288 81.00
TorchScript 218.1 0.8308 113.49
ONNX 217.5 0.8308 75.20
OpenVINO 217.8 0.8285 508.12
TensorRT (FP32) 219.5 0.8307 67.32
TensorRT (FP16) 112.2 0.8248 32.94
TensorRT (INT8) 61.7 0.4854 20.72
TF SavedModel 545.0 0.8308 1048.8
TF GraphDef 217.8 0.8308 2961.8
TF Lite 217.8 0.8308 7898.8
PaddlePaddle 434.8 0.8308 9903.68
MNN 217.3 0.8308 1242.97
NCNN 217.3 0.8304 850.05

Benchmarked with Ultralytics 8.3.51

NVIDIA Jetson Orin NX 16GB

Производительность

Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 5.4 0.6176 19.50
TorchScript 10.5 0.6100 13.03
ONNX 10.2 0.6100 8.44
OpenVINO 10.4 0.6091 40.83
TensorRT (FP32) 11.9 0.6100 8.05
TensorRT (FP16) 8.2 0.6096 4.85
TensorRT (INT8) 5.5 0.3180 4.37
TF SavedModel 25.8 0.6082 185.39
TF GraphDef 10.3 0.6082 244.85
TF Lite 10.3 0.6082 289.77
PaddlePaddle 20.4 0.6082 476.52
MNN 10.1 0.6120 53.37
NCNN 10.2 0.6106 33.55
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 18.4 0.7526 19.00
TorchScript 36.5 0.7400 22.90
ONNX 36.3 0.7400 14.44
OpenVINO 36.4 0.7391 88.70
TensorRT (FP32) 37.9 0.7400 14.13
TensorRT (FP16) 21.6 0.7406 7.55
TensorRT (INT8) 12.2 0.3243 5.63
TF SavedModel 91.1 0.7400 317.61
TF GraphDef 36.4 0.7400 515.99
TF Lite 36.4 0.7400 838.85
PaddlePaddle 72.5 0.7400 1170.07
MNN 36.2 0.7413 125.23
NCNN 36.2 0.7403 68.13
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 38.8 0.7598 36.50
TorchScript 77.3 0.7643 52.55
ONNX 76.9 0.7640 31.16
OpenVINO 77.1 0.7642 208.57
TensorRT (FP32) 78.7 0.7640 30.72
TensorRT (FP16) 41.5 0.7651 14.45
TensorRT (INT8) 23.3 0.4194 10.19
TF SavedModel 192.7 0.7643 590.11
TF GraphDef 77.0 0.7643 998.57
TF Lite 77.0 0.7643 2486.11
PaddlePaddle 153.8 0.7643 3236.09
MNN 76.8 0.7661 335.78
NCNN 76.8 0.7674 188.43
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 49.0 0.7475 46.6
TorchScript 97.6 0.7250 66.54
ONNX 97.0 0.7250 39.55
OpenVINO 97.3 0.7226 262.44
TensorRT (FP32) 99.2 0.7250 38.68
TensorRT (FP16) 51.9 0.7265 18.53
TensorRT (INT8) 30.9 0.4033 13.36
TF SavedModel 243.3 0.7250 850.25
TF GraphDef 97.2 0.7250 1324.60
TF Lite 97.2 0.7250 3191.24
PaddlePaddle 193.9 0.7250 4204.97
MNN 96.9 0.7225 414.41
NCNN 96.9 0.7252 237.74
Формат Статус Размер на диске (МБ) mAP50-95(B) Время вывода (мс/им)
PyTorch 109.3 0.8288 86.00
TorchScript 218.1 0.8308 122.43
ONNX 217.5 0.8307 77.50
OpenVINO 217.8 0.8285 508.12
TensorRT (FP32) 219.5 0.8307 76.44
TensorRT (FP16) 112.0 0.8309 35.99
TensorRT (INT8) 61.6 0.4854 22.32
TF SavedModel 545.0 0.8308 1470.06
TF GraphDef 217.8 0.8308 2549.78
TF Lite 217.8 0.8308 7025.44
PaddlePaddle 434.8 0.8308 8364.89
MNN 217.3 0.8289 827.13
NCNN 217.3 0.8304 490.29

Benchmarked with Ultralytics 8.3.51

Изучите результаты бенчмарков Seeed Studio, проведенных на различных версиях аппаратного обеспечения NVIDIA Jetson.

Воспроизведите наши результаты

Чтобы воспроизвести приведенные выше эталоны Ultralytics на всех форматах экспорта, выполните этот код:

Пример

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
results = model.benchmark(data="coco8.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml imgsz=640

Обратите внимание, что результаты бенчмарков могут отличаться в зависимости от точной аппаратной и программной конфигурации системы, а также от текущей нагрузки на систему в момент запуска бенчмарков. Для получения наиболее достоверных результатов используйте набор данных с большим количеством изображений, т. е. data='coco8.yaml' (4 val images), ordata='coco.yaml'` (5000 изображений val).

Лучшие практики при использовании NVIDIA Jetson

При использовании NVIDIA Jetson следует придерживаться нескольких рекомендаций, чтобы обеспечить максимальную производительность NVIDIA Jetson под управлением YOLO11.

  1. Включить режим MAX Power

    Включение режима MAX Power Mode на Jetson обеспечит включение всех ядер CPU, GPU .

    sudo nvpmodel -m 0
    
  2. Включить часы Jetson

    Включение Jetson Clocks гарантирует, что все ядра CPU, GPU будут работать на максимальной частоте.

    sudo jetson_clocks
    
  3. Установите приложение Jetson Stats

    Мы можем использовать приложение jetson stats для мониторинга температуры компонентов системы и проверки других системных данных, таких как просмотр CPU, GPU, использование оперативной памяти, изменение режимов питания, установка максимальных часов, проверка информации о JetPack.

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Статистика Джетсона

Следующие шаги

Поздравляем с успешной настройкой YOLO11 на вашем NVIDIA Jetson! Для дальнейшего обучения и поддержки посетите дополнительное руководство на Ultralytics YOLO11 Docs!

ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ

Как развернуть Ultralytics YOLO11 на устройствах NVIDIA Jetson?

Развертывание Ultralytics YOLO11 на устройствах NVIDIA Jetson - это простой процесс. Сначала прошейте устройство Jetson с помощью NVIDIA JetPack SDK. Затем воспользуйтесь готовым образом Docker для быстрой настройки или установите необходимые пакеты вручную. Подробные шаги для каждого подхода можно найти в разделах "Быстрый старт с Docker" и "Старт с нативной установкой".

Каких показателей производительности можно ожидать от моделей YOLO11 на устройствах NVIDIA Jetson?

YOLO11 models have been benchmarked on various NVIDIA Jetson devices showing significant performance improvements. For example, the TensorRT format delivers the best inference performance. The table in the Detailed Comparison Tables section provides a comprehensive view of performance metrics like mAP50-95 and inference time across different model formats.

Почему я должен использовать TensorRT для развертывания YOLO11 на NVIDIA Jetson?

TensorRT настоятельно рекомендуется для развертывания моделей YOLO11 на NVIDIA Jetson благодаря своей оптимальной производительности. Он ускоряет проведение выводов за счет использования возможностей GPU Jetson, обеспечивая максимальную эффективность и скорость. Подробнее о том, как конвертировать в TensorRT и выполнять вычисления, читайте в разделе Использование TensorRT на NVIDIA Jetson.

Как установить PyTorch и Torchvision на NVIDIA Jetson?

To install PyTorch and Torchvision on NVIDIA Jetson, first uninstall any existing versions that may have been installed via pip. Then, manually install the compatible PyTorch and Torchvision versions for the Jetson's ARM64 architecture. Detailed instructions for this process are provided in the Installation of PyTorch and Torchvision section.

Каковы наилучшие методы достижения максимальной производительности на NVIDIA Jetson при использовании YOLO11?

Чтобы добиться максимальной производительности на NVIDIA Jetson с YOLO11, следуйте следующим рекомендациям:

  1. Включите режим MAX Power Mode, чтобы задействовать все ядра CPU и GPU .
  2. Включите Jetson Clocks, чтобы запустить все ядра на максимальной частоте.
  3. Установите приложение Jetson Stats для мониторинга системных показателей.

Команды и дополнительные сведения см. в разделе "Лучшие практики при использовании NVIDIA Jetson".

📅 Создано 9 месяцев назад ✏️ Обновлено 7 дней назад

Комментарии