Ir para o conteúdo

Guia de Início Rápido: NVIDIA Jetson com Ultralytics YOLO11

Este guia abrangente fornece um passo a passo detalhado para implementar o Ultralytics YOLO11 em dispositivos NVIDIA Jetson. Além disso, apresenta benchmarks de desempenho para demonstrar as capacidades do YOLO11 nesses dispositivos pequenos e poderosos.

Novo suporte a produtos

Atualizamos este guia com o mais recente Kit de DesenvolvedorNVIDIA Jetson AGX Thor, que oferece até 2070 FP4 TFLOPS de computação de AI e 128 GB de memória com potência configurável entre 40 W e 130 W. Ele oferece computação de AI 7,5x maior do que o NVIDIA Jetson AGX Orin, com eficiência energética 3,5x melhor para executar perfeitamente os modelos de AI mais populares.



Assista: Como usar Ultralytics YOLO11 em Dispositivos NVIDIA JETSON

Ecossistema NVIDIA Jetson

Nota

Este guia foi testado com o Kit de DesenvolvimentoNVIDIA Jetson AGX Thor com a última versão estável do JetPack JP7.0, o Kit de DesenvolvimentoNVIDIA Jetson AGX Orin (64GB) com a versão JetPack JP6.2, o Kit de DesenvolvimentoNVIDIA Jetson Orin Nano Super com a versão JetPack JP6.1, Seeed Studio reComputer J4012 que se baseia no NVIDIA Jetson Orin NX 16GB com a versão JetPack do JP6.0/ JetPack do JP5.1.3 e Seeed Studio reComputer J1020 v2 que se baseia no NVIDIA Jetson Nano 4GB com a versão JetPack do JP4.6.1. Espera-se que funcione em toda a linha de hardware NVIDIA Jetson, incluindo o mais recente e o legado.

O que é NVIDIA Jetson?

NVIDIA Jetson é uma série de placas de computação embarcadas projetadas para trazer computação acelerada de IA (inteligência artificial) para dispositivos de borda. Esses dispositivos compactos e poderosos são construídos em torno da arquitetura de GPU da NVIDIA e são capazes de executar algoritmos complexos de IA e modelos de aprendizado profundo diretamente no dispositivo, sem a necessidade de depender de recursos de computação em nuvem. As placas Jetson são frequentemente usadas em robótica, veículos autônomos, automação industrial e outras aplicações onde a inferência de IA precisa ser realizada localmente com baixa latência e alta eficiência. Além disso, essas placas são baseadas na arquitetura ARM64 e funcionam com menor consumo de energia em comparação com os dispositivos de computação GPU tradicionais.

Comparação da Série NVIDIA Jetson

ONVIDIA Jetson AGX Thor é a mais recente iteração da família NVIDIA Jetson baseada na arquitetura NVIDIA Blackwell, que traz um desempenho de IA drasticamente melhorado em comparação com as gerações anteriores. A tabela abaixo compara alguns dos dispositivos Jetson no ecossistema.

Jetson AGX ThorJetson AGX Orin 64GBJetson Orin NX 16GBJetson Orin Nano SuperJetson AGX XavierJetson Xavier NXJetson Nano
Desempenho de IA2070 TFLOPS275 TOPS100 TOPS67 TOPS32 TOPS21 TOPS472 GFLOPS
GPUGPU NVIDIA Blackwell de 2560 núcleos com 96 núcleos TensorGPU NVIDIA Ampere com arquitetura de 2048 núcleos e 64 Cores TensorGPU NVIDIA Ampere architecture de 1024 núcleos com 32 Tensor CoresGPU NVIDIA Ampere architecture de 1024 núcleos com 32 Tensor CoresGPU NVIDIA Volta com arquitetura de 512 núcleos e 64 Tensor CoresGPU NVIDIA Volta™ com arquitetura de 384 núcleos e 48 Cores TensorGPU NVIDIA Maxwell™ architecture de 128 núcleos
Frequência Máxima da GPU1,57 GHz1.3 GHz918 MHz1020 MHz1377 MHz1100 MHz921MHz
CPUCPU Arm® Neoverse®-V3AE de 64 bits com 14 núcleos 1 MB L2 + 16 MB L3CPU NVIDIA Arm® Cortex A78AE v8.2 de 64 bits e 12 núcleos, 3 MB L2 + 6 MB L3CPU NVIDIA Arm® Cortex A78AE v8.2 de 8 núcleos e 64 bits, 2 MB L2 + 4 MB L3CPU Arm® Cortex®-A78AE v8.2 de 6 núcleos e 64 bits, 1,5 MB L2 + 4 MB L3CPU NVIDIA Carmel Arm®v8.2 de 8 núcleos e 64 bits, 8 MB L2 + 4 MB L3CPU NVIDIA Carmel Arm®v8.2 de 6 núcleos e 64 bits, 6 MB L2 + 4 MB L3Processador Quad-Core Arm® Cortex®-A57 MPCore
Frequência Máxima da CPU2,6 GHz2,2 GHz2,0 GHz1,7 GHz2,2 GHz1,9 GHz1.43GHz
Memória128GB LPDDR5X de 256 bits 273GB/sLPDDR5 de 64 GB e 256 bits, 204,8 GB/s16 GB 128-bit LPDDR5 102,4 GB/sLPDDR5 de 8 GB e 128 bits, 102 GB/s32 GB 256-bit LPDDR4x 136,5 GB/sLPDDR4x de 8 GB e 128 bits, 59,7 GB/s4GB LPDDR4 de 64 bits 25,6GB/s

Para uma tabela de comparação mais detalhada, visite a secção Comparar especificações da página oficial NVIDIA Jetson.

O que é NVIDIA JetPack?

O NVIDIA JetPack SDK, que alimenta os módulos Jetson, é a solução mais abrangente e fornece um ambiente de desenvolvimento completo para a criação de aplicações de IA aceleradas de ponta a ponta e reduz o tempo de lançamento no mercado. O JetPack inclui Jetson Linux com bootloader, kernel Linux, ambiente de desktop Ubuntu e um conjunto completo de bibliotecas para aceleração de computação de GPU, multimídia, gráficos e visão computacional. Ele também inclui amostras, documentação e ferramentas de desenvolvedor para computador host e kit de desenvolvedor, e suporta SDKs de nível superior, como DeepStream para análise de vídeo em streaming, Isaac para robótica e Riva para IA conversacional.

Instalar o JetPack no NVIDIA Jetson

O primeiro passo depois de colocar as mãos em um dispositivo NVIDIA Jetson é instalar o NVIDIA JetPack no dispositivo. Existem várias maneiras diferentes de instalar dispositivos NVIDIA Jetson.

  1. Se possuir um kit de desenvolvimento oficial NVIDIA , como o Jetson AGX Thor Developer Kit, pode descarregar uma imagem e preparar uma pen USB de arranque para instalar o JetPack no SSD incluído.
  2. Se você possui um Kit de Desenvolvimento NVIDIA oficial, como o Jetson Orin Nano Developer Kit, você pode baixar uma imagem e preparar um cartão SD com o JetPack para inicializar o dispositivo.
  3. Se você possui qualquer outro Kit de Desenvolvimento NVIDIA, você pode instalar o JetPack no dispositivo usando o SDK Manager.
  4. Se você possui um dispositivo Seeed Studio reComputer J4012, você pode instalar o JetPack no SSD incluído e, se você possui um dispositivo Seeed Studio reComputer J1020 v2, você pode instalar o JetPack no eMMC/SSD.
  5. Se você possui qualquer outro dispositivo de terceiros alimentado pelo módulo NVIDIA Jetson, é recomendável seguir a instalação pela linha de comando.

Nota

Para os métodos 1, 4 e 5 acima, depois de fazer o flash do sistema e arrancar o dispositivo, introduza "sudo apt update && sudo apt install nvidia-y" no terminal do dispositivo para instalar todos os restantes componentes JetPack necessários.

Suporte do JetPack Baseado no Dispositivo Jetson

A tabela abaixo destaca as versões do NVIDIA JetPack suportadas por diferentes dispositivos NVIDIA Jetson.

JetPack 4JetPack 5JetPack 6JetPack 7
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano
Jetson AGX Thor

Início Rápido com Docker

A maneira mais rápida de começar a usar o Ultralytics YOLO11 no NVIDIA Jetson é executar com imagens docker pré-construídas para Jetson. Consulte a tabela acima e escolha a versão do JetPack de acordo com o dispositivo Jetson que você possui.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

Em breve! Fique ligado!

Depois de feito isso, pule para a seção Usar TensorRT no NVIDIA Jetson.

Comece com a Instalação Nativa

Para uma instalação nativa sem Docker, consulte os passos abaixo.

Executar no JetPack 7.0

Instalar Pacote Ultralytics

Aqui, instalaremos o pacote Ultralytics no Jetson com dependências opcionais para que possamos exportar os modelos PyTorch para outros formatos diferentes. Focaremos principalmente nas exportações NVIDIA TensorRT, porque o TensorRT garantirá que possamos obter o máximo desempenho dos dispositivos Jetson.

  1. Atualize a lista de pacotes, instale o pip e atualize para a versão mais recente

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Instalar ultralytics pacote pip com dependências opcionais

    pip install ultralytics[export]
    
  3. Reinicie o dispositivo

    sudo reboot
    

Instalar PyTorch e Torchvision

A instalação ultralytics acima instalará Torch e o Torchvision. No entanto, esses dois pacotes instalados via pip não são compatíveis para rodar no Jetson AGX Thor, que vem com JetPack 7.0 e CUDA 13. Portanto, precisamos instalá-los manualmente.

Instalar torch e torchvision de acordo com JP7.0

pip install torch torchvision --index-url https://download.pytorch.org/whl/cu130

Instalar onnxruntime-gpu

O onnxruntime-gpu pacote hospedado no PyPI não tem aarch64 binários para o Jetson. Portanto, precisamos instalar este pacote manualmente. Este pacote é necessário para algumas das exportações.

Aqui vamos descarregar e instalar onnxruntime-gpu 1.24.0 com Python3.12 suporte.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.24.0-cp312-cp312-linux_aarch64.whl

Executar no JetPack 6.1

Instalar Pacote Ultralytics

Aqui, instalaremos o pacote Ultralytics no Jetson com dependências opcionais para que possamos exportar os modelos PyTorch para outros formatos diferentes. Focaremos principalmente nas exportações NVIDIA TensorRT, porque o TensorRT garantirá que possamos obter o máximo desempenho dos dispositivos Jetson.

  1. Atualize a lista de pacotes, instale o pip e atualize para a versão mais recente

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Instalar ultralytics pacote pip com dependências opcionais

    pip install ultralytics[export]
    
  3. Reinicie o dispositivo

    sudo reboot
    

Instalar PyTorch e Torchvision

A instalação ultralytics acima instalará Torch e o Torchvision. No entanto, esses dois pacotes instalados via pip não são compatíveis com a plataforma Jetson, que é baseada na arquitetura ARM64. Portanto, precisamos instalar manualmente um pip wheel pré-construído PyTorch e compilar ou instalar o Torchvision a partir da fonte.

Instalar torch 2.5.0 e torchvision 0.20 de acordo com JP6.1

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl

Nota

Visite a página do PyTorch para Jetson para acessar todas as diferentes versões do PyTorch para diferentes versões do JetPack. Para uma lista mais detalhada sobre a compatibilidade do PyTorch e Torchvision, visite a página de compatibilidade do PyTorch e Torchvision.

Instalar cuSPARSELt para corrigir um problema de dependência com torch 2.5.0

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev

Instalar onnxruntime-gpu

O onnxruntime-gpu pacote hospedado no PyPI não tem aarch64 binários para o Jetson. Portanto, precisamos instalar este pacote manualmente. Este pacote é necessário para algumas das exportações.

Você pode encontrar todos os onnxruntime-gpu pacotes — organizados por versão do JetPack, versão do Python e outros detalhes de compatibilidade — no Matriz de compatibilidade do Jetson Zoo ONNX Runtime. Aqui vamos baixar e instalar onnxruntime-gpu 1.20.0 com Python3.10 suporte.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl

Nota

onnxruntime-gpu reverterá automaticamente a versão do numpy para a mais recente. Portanto, precisamos reinstalar o numpy para 1.23.5 para corrigir um problema executando:

pip install numpy==1.23.5

Executar no JetPack 5.1.2

Instalar Pacote Ultralytics

Aqui, instalaremos o pacote Ultralytics no Jetson com dependências opcionais para que possamos exportar os modelos PyTorch para outros formatos diferentes. Focaremos principalmente nas exportações NVIDIA TensorRT, porque o TensorRT garantirá que possamos obter o máximo desempenho dos dispositivos Jetson.

  1. Atualize a lista de pacotes, instale o pip e atualize para a versão mais recente

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Instalar ultralytics pacote pip com dependências opcionais

    pip install ultralytics[export]
    
  3. Reinicie o dispositivo

    sudo reboot
    

Instalar PyTorch e Torchvision

A instalação ultralytics acima instalará Torch e o Torchvision. No entanto, esses dois pacotes instalados via pip não são compatíveis com a plataforma Jetson, que é baseada na arquitetura ARM64. Portanto, precisamos instalar manualmente um pip wheel pré-construído PyTorch e compilar ou instalar o Torchvision a partir da fonte.

  1. Desinstale o PyTorch e o Torchvision atualmente instalados.

    pip uninstall torch torchvision
    
  2. Instalar torch 2.2.0 e torchvision 0.17.2 de acordo com JP5.1.2

    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.2.0-cp38-cp38-linux_aarch64.whl
    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.17.2+c1d70fe-cp38-cp38-linux_aarch64.whl
    

Nota

Visite a página do PyTorch para Jetson para acessar todas as diferentes versões do PyTorch para diferentes versões do JetPack. Para uma lista mais detalhada sobre a compatibilidade do PyTorch e Torchvision, visite a página de compatibilidade do PyTorch e Torchvision.

Instalar onnxruntime-gpu

O onnxruntime-gpu pacote hospedado no PyPI não tem aarch64 binários para o Jetson. Portanto, precisamos instalar este pacote manualmente. Este pacote é necessário para algumas das exportações.

Você pode encontrar todos os onnxruntime-gpu pacotes — organizados por versão do JetPack, versão do Python e outros detalhes de compatibilidade — no Matriz de compatibilidade do Jetson Zoo ONNX Runtime. Aqui vamos baixar e instalar onnxruntime-gpu 1.17.0 com Python3.8 suporte.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Nota

onnxruntime-gpu reverterá automaticamente a versão do numpy para a mais recente. Portanto, precisamos reinstalar o numpy para 1.23.5 para corrigir um problema executando:

pip install numpy==1.23.5

Usar TensorRT no NVIDIA Jetson

Entre todos os formatos de exportação de modelos suportados pela Ultralytics, o TensorRT oferece o maior desempenho de inferência em dispositivos NVIDIA Jetson, tornando-o a nossa principal recomendação para implementações Jetson. Para obter instruções de configuração e utilização avançada, consulte o nosso guia de integração TensorRT dedicado.

Converter Modelo para TensorRT e Executar Inferência

O modelo YOLO11n no formato PyTorch é convertido para TensorRT para executar a inferência com o modelo exportado.

Exemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Nota

Visite a página de Exportação para acessar argumentos adicionais ao exportar modelos para diferentes formatos de modelo.

Use o Acelerador de Aprendizado Profundo (DLA) da NVIDIA

O NVIDIA Deep Learning Accelerator (DLA) é um componente de hardware especializado integrado aos dispositivos NVIDIA Jetson que otimiza a inferência de deep learning para eficiência energética e desempenho. Ao descarregar tarefas da GPU (liberando-a para processos mais intensivos), o DLA permite que os modelos sejam executados com menor consumo de energia, mantendo o alto rendimento, ideal para sistemas embarcados e aplicações de IA em tempo real.

Os seguintes dispositivos Jetson estão equipados com hardware DLA:

Dispositivo JetsonNúcleos DLAFrequência Máxima DLA
Série Jetson AGX Orin21.6 GHz
Jetson Orin NX 16GB2614 MHz
Jetson Orin NX 8GB1614 MHz
Série Jetson AGX Xavier21.4 GHz
Série Jetson Xavier NX21.1 GHz

Exemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
# Once DLA core number is specified at export, it will use the same core at inference
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Nota

Ao usar exportações DLA, algumas camadas podem não ser suportadas para serem executadas no DLA e recorrerão à GPU para execução. Esse fallback pode introduzir latência adicional e impactar o desempenho geral da inferência. Portanto, o DLA não foi projetado principalmente para reduzir a latência de inferência em comparação com o TensorRT sendo executado inteiramente na GPU. Em vez disso, seu objetivo principal é aumentar a taxa de transferência e melhorar a eficiência energética.

Testes de referência NVIDIA Jetson YOLO11

Os benchmarks YOLO11 foram executados pela equipa Ultralytics em 11 formatos de modelos diferentes, medindo a velocidade e a precisão: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch. Os testes de referência foram executados no kit de desenvolvimento NVIDIA Jetson AGX Thor, no kit de desenvolvimento NVIDIA Jetson AGX Orin (64 GB), no kit de desenvolvimento NVIDIA Jetson Orin Nano Super e no Seeed Studio reComputer J4012 alimentado pelo dispositivo Jetson Orin NX de 16 GB com precisão FP32 e tamanho de imagem de entrada predefinido de 640.

Gráficos de Comparação

Embora todas as exportações de modelos funcionem com NVIDIA Jetson, incluímos apenas PyTorch, TorchScript, TensorRT para o gráfico de comparação abaixo porque eles utilizam a GPU no Jetson e têm garantia de produzir os melhores resultados. Todas as outras exportações utilizam apenas a CPU e o desempenho não é tão bom quanto os três acima. Você pode encontrar benchmarks para todas as exportações na seção após este gráfico.

Kit de desenvolvimento NVIDIA Jetson AGX Thor

Benchmarks do Jetson AGX Thor
Comparação de desempenho com o Ultralytics 8.3.226

NVIDIA Jetson AGX Orin Developer Kit (64GB)

Benchmarks do Jetson AGX Orin
Testado com Ultralytics 8.3.157

Kit de Superdesenvolvedor NVIDIA Jetson Orin Nano

Benchmarks do Jetson Orin Nano Super
Testado com Ultralytics 8.3.157

NVIDIA Jetson Orin NX 16GB

Benchmarks do Jetson Orin NX 16GB
Testado com Ultralytics 8.3.157

Tabelas de Comparação Detalhadas

A tabela abaixo representa os resultados de benchmark para cinco modelos diferentes (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) em 11 formatos diferentesPyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch), dando-nos o estado, tamanho, métrica mAP50-95(B) e tempo de inferência para cada combinação.

Kit de desenvolvimento NVIDIA Jetson AGX Thor

Desempenho

FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch5.40.50704.1
TorchScript10.50.50833.61
ONNX10.20.50764.8
OpenVINO10.40.505816.48
TensorRT (FP32)12.60.50771.70
TensorRT (FP16)7.70.50751.20
TensorRT (INT8)6.20.48581.29
TF SavedModel25.70.507640.35
TF GraphDef10.30.507640.55
TF Lite10.30.5075206.74
MNN10.10.507523.47
NCNN10.20.504122.05
ExecTorch10.20.507534.28
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch18.40.57706.10
TorchScript36.60.57835.33
ONNX36.30.57837.01
OpenVINO36.40.580933.08
TensorRT (FP32)40.10.57842.57
TensorRT (FP16)20.80.57961.55
TensorRT (INT8)12.70.55141.50
TF SavedModel90.80.578280.55
TF GraphDef36.30.578280.82
TF Lite36.30.5782615.29
MNN36.20.579054.12
NCNN36.30.580640.76
ExecTorch36.20.578267.21
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch38.80.625011.4
TorchScript77.30.630410.16
ONNX76.90.630412.35
OpenVINO77.10.628477.81
TensorRT (FP32)80.70.63055.29
TensorRT (FP16)41.30.62942.42
TensorRT (INT8)23.70.61332.20
TF SavedModel192.40.6306184.66
TF GraphDef76.90.6306187.91
TF Lite76.90.63061845.09
MNN76.80.6298143.52
NCNN76.90.630895.86
ExecTorch76.90.6306167.94
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch49.00.637014.0
TorchScript97.60.640913.77
ONNX97.00.641016.37
OpenVINO97.30.637798.86
TensorRT (FP32)101.00.63966.71
TensorRT (FP16)51.50.63583.26
TensorRT (INT8)29.70.61903.21
TF SavedModel242.70.6409246.93
TF GraphDef97.00.6409251.84
TF Lite97.00.64092383.45
MNN96.90.6361176.53
NCNN97.00.6373118.05
ExecTorch97.00.6409211.46
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch109.30.699021.70
TorchScript218.10.690020.99
ONNX217.50.690024.07
OpenVINO217.80.6872187.33
TensorRT (FP32)220.00.690211.70
TensorRT (FP16)114.60.68815.10
TensorRT (INT8)59.90.68574.53
TF SavedModel543.90.6900489.91
TF GraphDef217.50.6900503.21
TF Lite217.50.69005164.31
MNN217.30.6905350.37
NCNN217.50.6901230.63
ExecTorch217.40.6900419.9

Comparação de desempenho com o Ultralytics 8.3.226

Nota

O tempo de inferência não inclui o pré/pós-processamento.

NVIDIA Jetson AGX Orin Developer Kit (64GB)

Desempenho

FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch5.40.51019.40
TorchScript10.50.508311.00
ONNX10.20.507748.32
OpenVINO10.40.505827.24
TensorRT (FP32)12.10.50853.93
TensorRT (FP16)8.30.50632.55
TensorRT (INT8)5.40.47192.18
TF SavedModel25.90.507766.87
TF GraphDef10.30.507765.68
TF Lite10.30.5077272.92
MNN10.10.505936.33
NCNN10.20.503128.51
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch18.40.578312.10
TorchScript36.50.578211.01
ONNX36.30.5782107.54
OpenVINO36.40.581055.03
TensorRT (FP32)38.10.57816.52
TensorRT (FP16)21.40.58033.65
TensorRT (INT8)12.10.57352.81
TF SavedModel91.00.5782132.73
TF GraphDef36.40.5782134.96
TF Lite36.30.5782798.21
MNN36.20.577782.35
NCNN36.20.578456.07
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch38.80.626522.20
TorchScript77.30.630721.47
ONNX76.90.6307270.89
OpenVINO77.10.6284129.10
TensorRT (FP32)78.80.630612.53
TensorRT (FP16)41.90.63056.25
TensorRT (INT8)23.20.62914.69
TF SavedModel192.70.6307299.95
TF GraphDef77.10.6307310.58
TF Lite77.00.63072400.54
MNN76.80.6308213.56
NCNN76.80.6284141.18
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch49.00.636427.70
TorchScript97.60.639927.94
ONNX97.00.6409345.47
OpenVINO97.30.6378161.93
TensorRT (FP32)99.10.640616.11
TensorRT (FP16)52.60.63768.08
TensorRT (INT8)30.80.62086.12
TF SavedModel243.10.6409390.78
TF GraphDef97.20.6409398.76
TF Lite97.10.64093037.05
MNN96.90.6372265.46
NCNN96.90.6364179.68
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch109.30.700544.40
TorchScript218.10.689847.49
ONNX217.50.6900682.98
OpenVINO217.80.6876298.15
TensorRT (FP32)219.60.690428.50
TensorRT (FP16)112.20.688713.55
TensorRT (INT8)60.00.65749.40
TF SavedModel544.30.6900749.85
TF GraphDef217.70.6900753.86
TF Lite217.60.69006603.27
MNN217.30.6868519.77
NCNN217.30.6849298.58

Testado com Ultralytics 8.3.157

Nota

O tempo de inferência não inclui o pré/pós-processamento.

Kit de Superdesenvolvedor NVIDIA Jetson Orin Nano

Desempenho

FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch5.40.510113.70
TorchScript10.50.508213.69
ONNX10.20.508114.47
OpenVINO10.40.505856.66
TensorRT (FP32)12.00.50817.44
TensorRT (FP16)8.20.50614.53
TensorRT (INT8)5.40.48253.70
TF SavedModel25.90.5077116.23
TF GraphDef10.30.5077114.92
TF Lite10.30.5077340.75
MNN10.10.505976.26
NCNN10.20.503145.03
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch18.40.579020.90
TorchScript36.50.578121.22
ONNX36.30.578125.07
OpenVINO36.40.5810122.98
TensorRT (FP32)37.90.578313.02
TensorRT (FP16)21.80.57796.93
TensorRT (INT8)12.20.57355.08
TF SavedModel91.00.5782250.65
TF GraphDef36.40.5782252.69
TF Lite36.30.5782998.68
MNN36.20.5781188.01
NCNN36.20.5784101.37
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch38.80.626646.50
TorchScript77.30.630747.95
ONNX76.90.630753.06
OpenVINO77.10.6284301.63
TensorRT (FP32)78.80.630527.86
TensorRT (FP16)41.70.630913.50
TensorRT (INT8)23.20.62919.12
TF SavedModel192.70.6307622.24
TF GraphDef77.10.6307628.74
TF Lite77.00.63072997.93
MNN76.80.6299509.96
NCNN76.80.6284292.99
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch49.00.636456.50
TorchScript97.60.640962.51
ONNX97.00.639968.35
OpenVINO97.30.6378376.03
TensorRT (FP32)99.20.639635.59
TensorRT (FP16)52.10.636117.48
TensorRT (INT8)30.90.620711.87
TF SavedModel243.10.6409807.47
TF GraphDef97.20.6409822.88
TF Lite97.10.64093792.23
MNN96.90.6372631.16
NCNN96.90.6364350.46
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch109.30.700590.00
TorchScript218.10.6901113.40
ONNX217.50.6901122.94
OpenVINO217.80.6876713.1
TensorRT (FP32)219.50.690466.93
TensorRT (FP16)112.20.689232.58
TensorRT (INT8)61.50.661219.90
TF SavedModel544.30.69001605.4
TF GraphDef217.80.69002961.8
TF Lite217.60.69008234.86
MNN217.30.68931254.18
NCNN217.30.6849725.50

Testado com Ultralytics 8.3.157

Nota

O tempo de inferência não inclui o pré/pós-processamento.

NVIDIA Jetson Orin NX 16GB

Desempenho

FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch5.40.510112.90
TorchScript10.50.508213.17
ONNX10.20.508115.43
OpenVINO10.40.505839.80
TensorRT (FP32)11.80.50817.94
TensorRT (FP16)8.10.50854.73
TensorRT (INT8)5.40.47863.90
TF SavedModel25.90.507788.48
TF GraphDef10.30.507786.67
TF Lite10.30.5077302.55
MNN10.10.505952.73
NCNN10.20.503132.04
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch18.40.579021.70
TorchScript36.50.578122.71
ONNX36.30.578126.49
OpenVINO36.40.581084.73
TensorRT (FP32)37.80.578313.77
TensorRT (FP16)21.20.57967.31
TensorRT (INT8)12.00.57355.33
TF SavedModel91.00.5782185.06
TF GraphDef36.40.5782186.45
TF Lite36.30.5782882.58
MNN36.20.5775126.36
NCNN36.20.578466.73
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch38.80.626645.00
TorchScript77.30.630751.87
ONNX76.90.630756.00
OpenVINO77.10.6284202.69
TensorRT (FP32)78.70.630530.38
TensorRT (FP16)41.80.630214.48
TensorRT (INT8)23.20.62919.74
TF SavedModel192.70.6307445.58
TF GraphDef77.10.6307460.94
TF Lite77.00.63072653.65
MNN76.80.6308339.38
NCNN76.80.6284187.64
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch49.00.636456.60
TorchScript97.60.640966.72
ONNX97.00.639971.92
OpenVINO97.30.6378254.17
TensorRT (FP32)99.20.640638.89
TensorRT (FP16)51.90.636318.59
TensorRT (INT8)30.90.620712.60
TF SavedModel243.10.6409575.98
TF GraphDef97.20.6409583.79
TF Lite97.10.64093353.41
MNN96.90.6367421.33
NCNN96.90.6364228.26
FormatoStatusTamanho no disco (MB)mAP50-95(B)Tempo de inferência (ms/im)
PyTorch109.30.700598.50
TorchScript218.10.6901123.03
ONNX217.50.6901129.55
OpenVINO217.80.6876483.44
TensorRT (FP32)219.60.690475.92
TensorRT (FP16)112.10.688535.78
TensorRT (INT8)61.60.659221.60
TF SavedModel544.30.69001120.43
TF GraphDef217.70.69001172.35
TF Lite217.60.69007283.63
MNN217.30.6877840.16
NCNN217.30.6849474.41

Testado com Ultralytics 8.3.157

Nota

O tempo de inferência não inclui o pré/pós-processamento.

Explore mais esforços de benchmarking da Seeed Studio executados em diferentes versões do hardware NVIDIA Jetson.

Reproduzir Nossos Resultados

Para reproduzir os benchmarks Ultralytics acima em todos os formatos de exportação, execute este código:

Exemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml imgsz=640

Observe que os resultados de benchmarking podem variar com base na configuração exata de hardware e software de um sistema, bem como na carga de trabalho atual do sistema no momento em que os benchmarks são executados. Para obter os resultados mais confiáveis, use um conjunto de dados com um grande número de imagens, ou seja, data='coco.yaml' (5000 imagens de validação).

Melhores Práticas ao usar NVIDIA Jetson

Ao usar o NVIDIA Jetson, existem algumas práticas recomendadas a serem seguidas para habilitar o máximo desempenho no NVIDIA Jetson executando YOLO11.

  1. Ativar Modo de Potência MÁX.

    Ativar o Modo de Potência MÁX. no Jetson garantirá que todos os núcleos da CPU e GPU sejam ativados.

    sudo nvpmodel -m 0
    
  2. Ativar Clocks Jetson

    Ativar os Clocks Jetson garantirá que todos os núcleos da CPU e GPU sejam sincronizados em sua frequência máxima.

    sudo jetson_clocks
    
  3. Instalar o Aplicativo Jetson Stats

    Podemos usar o aplicativo jetson stats para monitorar as temperaturas dos componentes do sistema e verificar outros detalhes do sistema, como visualizar a utilização de CPU, GPU, RAM, alterar os modos de energia, definir os clocks máximos, verificar as informações do JetPack

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Jetson Stats

Próximos Passos

Parabéns por configurar com sucesso o YOLO11 no seu NVIDIA Jetson! Para mais aprendizagem e suporte, visite mais guias em Ultralytics YOLO11 Docs!

FAQ

Como implemento o Ultralytics YOLO11 em dispositivos NVIDIA Jetson?

A implantação do Ultralytics YOLO11 em dispositivos NVIDIA Jetson é um processo simples. Primeiro, faça o flash do seu dispositivo Jetson com o NVIDIA JetPack SDK. Em seguida, use uma imagem Docker pré-construída para configuração rápida ou instale manualmente os pacotes necessários. Etapas detalhadas para cada abordagem podem ser encontradas nas seções Início Rápido com Docker e Iniciar com Instalação Nativa.

Quais benchmarks de desempenho posso esperar dos modelos YOLO11 em dispositivos NVIDIA Jetson?

Os modelos YOLO11 foram comparados em vários dispositivos NVIDIA Jetson, mostrando melhorias significativas de desempenho. Por exemplo, o formato TensorRT oferece o melhor desempenho de inferência. A tabela na seção Tabelas de Comparação Detalhadas fornece uma visão abrangente de métricas de desempenho como mAP50-95 e tempo de inferência em diferentes formatos de modelo.

Por que devo usar o TensorRT para implantar o YOLO11 no NVIDIA Jetson?

O TensorRT é altamente recomendado para implantar modelos YOLO11 no NVIDIA Jetson devido ao seu desempenho ideal. Ele acelera a inferência aproveitando os recursos da GPU do Jetson, garantindo máxima eficiência e velocidade. Saiba mais sobre como converter para TensorRT e executar a inferência na seção Use TensorRT on NVIDIA Jetson.

Como posso instalar PyTorch e Torchvision no NVIDIA Jetson?

Para instalar o PyTorch e o Torchvision no NVIDIA Jetson, primeiro desinstale quaisquer versões existentes que possam ter sido instaladas via pip. Em seguida, instale manualmente as versões compatíveis do PyTorch e do Torchvision para a arquitetura ARM64 do Jetson. Instruções detalhadas para este processo são fornecidas na seção Instalar o PyTorch e o Torchvision.

Quais são as melhores práticas para maximizar o desempenho no NVIDIA Jetson ao usar o YOLO11?

Para maximizar o desempenho no NVIDIA Jetson com YOLO11, siga estas práticas recomendadas:

  1. Ative o Modo de Potência MÁX. para utilizar todos os núcleos da CPU e GPU.
  2. Ative os Clocks Jetson para executar todos os núcleos em sua frequência máxima.
  3. Instale o aplicativo Jetson Stats para monitorar as métricas do sistema.

Para comandos e detalhes adicionais, consulte a seção Melhores Práticas ao usar NVIDIA Jetson.



📅C riado há 1 ano ✏️ Atualizado há 2 dias
glenn-jocherlakshanthadRizwanMunawarBurhan-QpicsalexY-T-GLaughing-qjustincdavisMatthewNoyceUltralyticsAssistantAhelsamahy

Comentários