Guia de início rápido: NVIDIA Jetson com Ultralytics YOLO11
Este guia abrangente fornece um passo-a-passo detalhado para a implantação do Ultralytics YOLO11 em dispositivos NVIDIA Jetson. Além disso, apresenta referências de desempenho para demonstrar as capacidades do YOLO11 nestes dispositivos pequenos e potentes.
New product support
We have updated this guide with the latest NVIDIA Jetson Orin Nano Super Developer Kit which delivers up to 67 TOPS of AI performance — a 1.7X improvement over its predecessor — to seamlessly run the most popular AI models.
Ver: Como configurar o NVIDIA Jetson com Ultralytics YOLO11
Nota
This guide has been tested with NVIDIA Jetson Orin Nano Super Developer Kit running the latest stable JetPack release of JP6.1, Seeed Studio reComputer J4012 which is based on NVIDIA Jetson Orin NX 16GB running JetPack release of JP6.0/ JetPack release of JP5.1.3 and Seeed Studio reComputer J1020 v2 which is based on NVIDIA Jetson Nano 4GB running JetPack release of JP4.6.1. It is expected to work across all the NVIDIA Jetson hardware lineup including latest and legacy.
O que é NVIDIA Jetson?
NVIDIA A Jetson é uma série de placas de computação incorporadas concebidas para levar a computação acelerada de IA (inteligência artificial) aos dispositivos periféricos. Estes dispositivos compactos e potentes são construídos em torno da arquitetura NVIDIA's GPU e são capazes de executar algoritmos de IA complexos e modelos de aprendizagem profunda diretamente no dispositivo, sem necessidade de depender de recursos de computação em nuvem. As placas Jetson são frequentemente utilizadas em robótica, veículos autónomos, automação industrial e outras aplicações em que a inferência de IA tem de ser realizada localmente com baixa latência e elevada eficiência. Além disso, estas placas baseiam-se na arquitetura ARM64 e consomem menos energia do que os dispositivos de computação GPU tradicionais.
NVIDIA Comparação da série Jetson
O Jetson Orin é a mais recente iteração da família NVIDIA Jetson baseada na arquitetura NVIDIA Ampere, que proporciona um desempenho de IA drasticamente melhorado em comparação com as gerações anteriores. A tabela abaixo compara alguns dos dispositivos Jetson no ecossistema.
Jetson AGX Orin 64GB | Jetson Orin NX 16GB | Jetson Orin Nano Super | Jetson AGX Xavier | Jetson Xavier NX | Jetson Nano | |
---|---|---|---|---|---|---|
Desempenho da IA | 275 TOPS | 100 TOPS | 67 TOPs | 32 TOPS | 21 TOPS | 472 GFLOPS |
GPU | 2048 núcleos NVIDIA Arquitetura Ampere GPU com 64 Tensor núcleos | 1024 núcleos NVIDIA Arquitetura Ampere GPU com 32 Tensor núcleos | 1024 núcleos NVIDIA Arquitetura Ampere GPU com 32 Tensor núcleos | 512 núcleos NVIDIA Arquitetura Volta GPU com 64 Tensor núcleos | 384 núcleos NVIDIA Arquitetura Volta™ GPU com 48 Tensor núcleos | Arquitetura NVIDIA Maxwell™ com 128 núcleos GPU |
GPU Frequência máxima | 1,3 GHz | 918 MHz | 1020 MHz | 1377 MHz | 1100 MHz | 921MHz |
CPU | 12 núcleos NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 | 8 núcleos NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 | Arm® Cortex®-A78AE v8.2 de 6 núcleos e 64 bits CPU 1,5 MB L2 + 4 MB L3 | 8 núcleos NVIDIA Carmel Arm®v8.2 64-bit CPU 8MB L2 + 4MB L3 | 6 núcleos NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 | Processador Quad-Core Arm® Cortex®-A57 MPCore |
CPU Frequência máxima | 2,2 GHz | 2,0 GHz | 1.7 GHz | 2,2 GHz | 1,9 GHz | 1.43GHz |
Memória | 64 GB LPDDR5 de 256 bits 204,8 GB/s | 16GB LPDDR5 de 128 bits 102,4GB/s | 8GB 128-bit LPDDR5 102 GB/s | 32 GB LPDDR4x de 256 bits 136,5 GB/s | 8GB LPDDR4x de 128 bits 59,7GB/s | 4GB LPDDR4 de 64 bits 25,6GB/s" |
Para obter uma tabela de comparação mais detalhada, visite a secção Especificações técnicas da página oficial NVIDIA Jetson.
O que é o NVIDIA JetPack?
NVIDIA O SDK JetPack que alimenta os módulos Jetson é a solução mais abrangente e proporciona um ambiente de desenvolvimento completo para a criação de aplicações de IA aceleradas de ponta a ponta e reduz o tempo de comercialização. O JetPack inclui o Jetson Linux com bootloader, kernel Linux, ambiente de trabalho Ubuntu e um conjunto completo de bibliotecas para aceleração de GPU computação, multimédia, gráficos e visão computacional. Inclui também amostras, documentação e ferramentas para programadores, tanto para o computador anfitrião como para o kit de desenvolvimento, e suporta SDKs de nível superior, como o DeepStream para análise de vídeo em fluxo contínuo, o Isaac para robótica e o Riva para IA de conversação.
Flash JetPack para NVIDIA Jetson
O primeiro passo depois de deitar as mãos a um dispositivo NVIDIA Jetson é fazer o flash do NVIDIA JetPack para o dispositivo. Existem várias formas diferentes de atualizar os dispositivos NVIDIA Jetson.
- Se possuir um kit de desenvolvimento oficial NVIDIA , como o kit de desenvolvimento Jetson Orin Nano, pode descarregar uma imagem e preparar um cartão SD com o JetPack para arrancar o dispositivo.
- Se possuir qualquer outro NVIDIA Development Kit, pode instalar o JetPack no dispositivo utilizando o SDK Manager.
- Se possuir um dispositivo Seeed Studio reComputer J4012, pode instalar o JetPack no SSD incluído e se possuir um dispositivo Seeed Studio reComputer J1020 v2, pode instalar o JetPack no eMMC/SSD.
- Se possuir qualquer outro dispositivo de terceiros alimentado pelo módulo NVIDIA Jetson, recomenda-se que siga a linha de comandos para piscar.
Nota
Para os métodos 3 e 4 acima, depois de fazer o flash do sistema e arrancar o dispositivo, introduza "sudo apt update && sudo apt install nvidia-jetpack -y" no terminal do dispositivo para instalar todos os restantes componentes JetPack necessários.
Suporte JetPack baseado no dispositivo Jetson
A tabela abaixo destaca as versões do NVIDIA JetPack suportadas por diferentes dispositivos NVIDIA Jetson.
JetPack 4 | JetPack 5 | JetPack 6 | |
---|---|---|---|
Jetson Nano | ✅ | ❌ | ❌ |
Jetson TX2 | ✅ | ❌ | ❌ |
Jetson Xavier NX | ✅ | ✅ | ❌ |
Jetson AGX Xavier | ✅ | ✅ | ❌ |
Jetson AGX Orin | ❌ | ✅ | ✅ |
Jetson Orin NX | ❌ | ✅ | ✅ |
Jetson Orin Nano | ❌ | ✅ | ✅ |
Início rápido com o Docker
A maneira mais rápida de começar a usar o Ultralytics YOLO11 no NVIDIA Jetson é executar com imagens de docker pré-construídas para o Jetson. Consulte a tabela acima e escolha a versão do JetPack de acordo com o dispositivo Jetson que possui.
Depois de fazer isto, passe à secção Utilizar TensorRT em NVIDIA Jetson.
Começar com a instalação nativa
Para uma instalação nativa sem o Docker, consulte as etapas abaixo.
Run on JetPack 6.1
Instalar o pacote Ultralytics
Aqui vamos instalar o pacote Ultralytics no Jetson com dependências opcionais para que possamos exportar os PyTorch modelos para outros formatos diferentes. Concentrar-nos-emos principalmente nas exportaçõesNVIDIA TensorRT porque o TensorRT garante que podemos obter o máximo desempenho dos dispositivos Jetson.
-
Atualizar a lista de pacotes, instalar o pip e atualizar para a versão mais recente
-
Instalar
ultralytics
pacote pip com dependências opcionais -
Reiniciar o dispositivo
Instalar PyTorch e Torchvision
A instalação do ultralytics acima instalará o Torch e o Torchvision. No entanto, esses dois pacotes instalados via pip não são compatíveis para serem executados na plataforma Jetson, que é baseada na arquitetura ARM64. Portanto, precisamos de instalar manualmente o PyTorch pip wheel pré-construído e compilar/instalar o Torchvision a partir da fonte.
Instalar torch 2.5.0
e torchvision 0.20
according to JP6.1
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl
Nota
Visite a páginaPyTorch for Jetson para aceder a todas as diferentes versões de PyTorch para diferentes versões do JetPack. Para obter uma lista mais detalhada sobre a compatibilidade do PyTorch e do Torchvision, visite a página de compatibilidade doPyTorch e do Torchvision.
Instalar cuSPARSELt
to fix a dependency issue with torch 2.5.0
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev
Instalar onnxruntime-gpu
O onnxruntime-gpu hospedado no PyPI não possui o pacote aarch64
binários para o Jetson. Por isso, precisamos de instalar manualmente este pacote. Este pacote é necessário para algumas das exportações.
Todos diferentes onnxruntime-gpu
os pacotes correspondentes às diferentes versões do JetPack e do Python são listados aqui. No entanto, aqui vamos descarregar e instalar onnxruntime-gpu 1.20.0
com Python3.10
apoio.
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl
Nota
onnxruntime-gpu
reverterá automaticamente a versão do numpy para a mais recente. Portanto, precisamos de reinstalar o numpy para 1.23.5
para corrigir um problema através da execução:
pip install numpy==1.23.5
Run on JetPack 5.1.2
Instalar o pacote Ultralytics
Aqui vamos instalar o pacote Ultralytics no Jetson com dependências opcionais para podermos exportar os modelos PyTorch para outros formatos diferentes. Concentrar-nos-emos principalmente nas exportaçõesNVIDIA TensorRT porque o TensorRT garante que podemos obter o máximo desempenho dos dispositivos Jetson.
-
Atualizar a lista de pacotes, instalar o pip e atualizar para a versão mais recente
-
Instalar
ultralytics
pacote pip com dependências opcionais -
Reiniciar o dispositivo
Instalar PyTorch e Torchvision
A instalação do ultralytics acima instalará o Torch e o Torchvision. No entanto, esses dois pacotes instalados via pip não são compatíveis para serem executados na plataforma Jetson, que é baseada na arquitetura ARM64. Portanto, precisamos de instalar manualmente o PyTorch pip wheel pré-construído e compilar/instalar o Torchvision a partir da fonte.
-
Desinstalar o PyTorch e o Torchvision atualmente instalados
-
Instalar
torch 2.1.0
etorchvision 0.16.2
according to JP5.1.2
Nota
Visite a páginaPyTorch for Jetson para aceder a todas as diferentes versões de PyTorch para diferentes versões do JetPack. Para obter uma lista mais detalhada sobre a compatibilidade do PyTorch e do Torchvision, visite a página de compatibilidade doPyTorch e do Torchvision.
Instalar onnxruntime-gpu
O onnxruntime-gpu hospedado no PyPI não possui o pacote aarch64
binários para o Jetson. Por isso, precisamos de instalar manualmente este pacote. Este pacote é necessário para algumas das exportações.
Todos diferentes onnxruntime-gpu
os pacotes correspondentes às diferentes versões do JetPack e do Python são listados aqui. No entanto, aqui vamos descarregar e instalar onnxruntime-gpu 1.17.0
com Python3.8
apoio.
wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
Nota
onnxruntime-gpu
reverterá automaticamente a versão do numpy para a mais recente. Portanto, precisamos de reinstalar o numpy para 1.23.5
para corrigir um problema através da execução:
pip install numpy==1.23.5
Utilizar TensorRT em NVIDIA Jetson
De todos os formatos de exportação de modelos suportados por Ultralytics, TensorRT oferece o melhor desempenho de inferência ao trabalhar com dispositivos NVIDIA Jetson e nossa recomendação é usar TensorRT com Jetson. Também temos um documento detalhado sobre TensorRT aqui.
Converter o modelo para TensorRT e executar a inferência
O modelo YOLO11n no formato PyTorch é convertido para TensorRT para efetuar a inferência com o modelo exportado.
Exemplo
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
Nota
Visite a página Exportar para aceder a argumentos adicionais ao exportar modelos para diferentes formatos de modelo
Utilizar NVIDIA Acelerador de Aprendizagem Profunda (DLA)
NVIDIA O Deep Learning Accelerator (DLA) é um componente de hardware especializado incorporado nos dispositivos NVIDIA Jetson que optimiza a inferência de aprendizagem profunda para eficiência energética e desempenho. Ao descarregar tarefas do GPU (libertando-o para processos mais intensivos), o DLA permite que os modelos sejam executados com menor consumo de energia, mantendo um elevado rendimento, ideal para sistemas incorporados e aplicações de IA em tempo real.
Os seguintes dispositivos Jetson estão equipados com hardware DLA:
- Jetson Orin NX 16GB
- Série Jetson AGX Orin
- Série Jetson AGX Xavier
- Série Jetson Xavier NX
Exemplo
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True) # dla:0 or dla:1 corresponds to the DLA cores
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores
# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
Nota
Ao utilizar as exportações do DLA, algumas camadas podem não ser suportadas para execução no DLA e voltarão para o GPU para execução. Este retorno pode introduzir latência adicional e afetar o desempenho geral da inferência. Por conseguinte, o DLA não foi concebido principalmente para reduzir a latência da inferência em comparação com o TensorRT que funciona inteiramente no GPU. Em vez disso, o seu objetivo principal é aumentar o rendimento e melhorar a eficiência energética.
NVIDIA Jetson Orin YOLO11 Referências
YOLO11 benchmarks were run by the Ultralytics team on 10 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, PaddlePaddle, NCNN. Benchmarks were run on both NVIDIA Jetson Orin Nano Super Developer Kit and Seeed Studio reComputer J4012 powered by Jetson Orin NX 16GB device at FP32 precision with default input image size of 640.
Comparison Charts
Apesar de todas as exportações de modelos estarem a funcionar com NVIDIA Jetson, incluímos apenas PyTorch, TorchScript, TensorRT no gráfico de comparação abaixo, porque utilizam o GPU no Jetson e garantem os melhores resultados. Todas as outras exportações utilizam apenas o CPU e o desempenho não é tão bom como as três anteriores. Pode encontrar referências para todas as exportações na secção a seguir a este gráfico.
NVIDIA Jetson Orin Nano Super Developer Kit
NVIDIA Jetson Orin NX 16GB
Detailed Comparison Tables
A tabela abaixo representa os resultados do teste de referência para cinco modelos diferentes (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) em dez formatos diferentes (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), dando-nos o estado, o tamanho, a métrica mAP50-95(B) e o tempo de inferência para cada combinação.
NVIDIA Jetson Orin Nano Super Developer Kit
Desempenho
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 21.3 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.40 |
ONNX | ✅ | 10.2 | 0.6100 | 7.94 |
OpenVINO | ✅ | 10.4 | 0.6091 | 57.36 |
TensorRT (FP32) | ✅ | 11.9 | 0.6082 | 7.60 |
TensorRT (FP16) | ✅ | 8.3 | 0.6096 | 4.91 |
TensorRT (INT8) | ✅ | 5.6 | 0.3180 | 3.91 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 223.98 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 289.95 |
TF Leve | ✅ | 10.3 | 0.6082 | 328.29 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 530.46 |
MNN | ✅ | 10.1 | 0.6120 | 74.75 |
NCNN | ✅ | 10.2 | 0.6106 | 46.12 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 22.00 |
TorchScript | ✅ | 36.5 | 0.7400 | 21.35 |
ONNX | ✅ | 36.3 | 0.7400 | 13.91 |
OpenVINO | ✅ | 36.4 | 0.7391 | 126.95 |
TensorRT (FP32) | ✅ | 38.0 | 0.7400 | 13.29 |
TensorRT (FP16) | ✅ | 21.3 | 0.7431 | 7.30 |
TensorRT (INT8) | ✅ | 12.2 | 0.3243 | 5.25 |
TF SavedModel | ✅ | 91.1 | 0.7400 | 406.73 |
TF GraphDef | ✅ | 36.4 | 0.7400 | 629.80 |
TF Leve | ✅ | 36.4 | 0.7400 | 953.98 |
PaddlePaddle | ✅ | 72.5 | 0.7400 | 1311.67 |
MNN | ✅ | 36.2 | 0.7392 | 187.66 |
NCNN | ✅ | 36.2 | 0.7403 | 122.02 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7598 | 33.00 |
TorchScript | ✅ | 77.3 | 0.7643 | 48.17 |
ONNX | ✅ | 76.9 | 0.7641 | 29.31 |
OpenVINO | ✅ | 77.1 | 0.7642 | 313.49 |
TensorRT (FP32) | ✅ | 78.7 | 0.7641 | 28.21 |
TensorRT (FP16) | ✅ | 41.8 | 0.7653 | 13.99 |
TensorRT (INT8) | ✅ | 23.2 | 0.4194 | 9.58 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 802.30 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 1335.42 |
TF Leve | ✅ | 77.0 | 0.7643 | 2842.42 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3644.29 |
MNN | ✅ | 76.8 | 0.7648 | 503.90 |
NCNN | ✅ | 76.8 | 0.7674 | 298.78 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 43.00 |
TorchScript | ✅ | 97.6 | 0.7250 | 62.94 |
ONNX | ✅ | 97.0 | 0.7250 | 36.33 |
OpenVINO | ✅ | 97.3 | 0.7226 | 387.72 |
TensorRT (FP32) | ✅ | 99.1 | 0.7250 | 35.59 |
TensorRT (FP16) | ✅ | 52.0 | 0.7265 | 17.57 |
TensorRT (INT8) | ✅ | 31.0 | 0.4033 | 12.37 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 1116.20 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1603.32 |
TF Leve | ✅ | 97.2 | 0.7250 | 3607.51 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4890.90 |
MNN | ✅ | 96.9 | 0.7222 | 619.04 |
NCNN | ✅ | 96.9 | 0.7252 | 352.85 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 81.00 |
TorchScript | ✅ | 218.1 | 0.8308 | 113.49 |
ONNX | ✅ | 217.5 | 0.8308 | 75.20 |
OpenVINO | ✅ | 217.8 | 0.8285 | 508.12 |
TensorRT (FP32) | ✅ | 219.5 | 0.8307 | 67.32 |
TensorRT (FP16) | ✅ | 112.2 | 0.8248 | 32.94 |
TensorRT (INT8) | ✅ | 61.7 | 0.4854 | 20.72 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1048.8 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2961.8 |
TF Leve | ✅ | 217.8 | 0.8308 | 7898.8 |
PaddlePaddle | ✅ | 434.8 | 0.8308 | 9903.68 |
MNN | ✅ | 217.3 | 0.8308 | 1242.97 |
NCNN | ✅ | 217.3 | 0.8304 | 850.05 |
Benchmarked with Ultralytics 8.3.51
NVIDIA Jetson Orin NX 16GB
Desempenho
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 19.50 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.03 |
ONNX | ✅ | 10.2 | 0.6100 | 8.44 |
OpenVINO | ✅ | 10.4 | 0.6091 | 40.83 |
TensorRT (FP32) | ✅ | 11.9 | 0.6100 | 8.05 |
TensorRT (FP16) | ✅ | 8.2 | 0.6096 | 4.85 |
TensorRT (INT8) | ✅ | 5.5 | 0.3180 | 4.37 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 185.39 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 244.85 |
TF Leve | ✅ | 10.3 | 0.6082 | 289.77 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 476.52 |
MNN | ✅ | 10.1 | 0.6120 | 53.37 |
NCNN | ✅ | 10.2 | 0.6106 | 33.55 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 19.00 |
TorchScript | ✅ | 36.5 | 0.7400 | 22.90 |
ONNX | ✅ | 36.3 | 0.7400 | 14.44 |
OpenVINO | ✅ | 36.4 | 0.7391 | 88.70 |
TensorRT (FP32) | ✅ | 37.9 | 0.7400 | 14.13 |
TensorRT (FP16) | ✅ | 21.6 | 0.7406 | 7.55 |
TensorRT (INT8) | ✅ | 12.2 | 0.3243 | 5.63 |
TF SavedModel | ✅ | 91.1 | 0.7400 | 317.61 |
TF GraphDef | ✅ | 36.4 | 0.7400 | 515.99 |
TF Leve | ✅ | 36.4 | 0.7400 | 838.85 |
PaddlePaddle | ✅ | 72.5 | 0.7400 | 1170.07 |
MNN | ✅ | 36.2 | 0.7413 | 125.23 |
NCNN | ✅ | 36.2 | 0.7403 | 68.13 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7598 | 36.50 |
TorchScript | ✅ | 77.3 | 0.7643 | 52.55 |
ONNX | ✅ | 76.9 | 0.7640 | 31.16 |
OpenVINO | ✅ | 77.1 | 0.7642 | 208.57 |
TensorRT (FP32) | ✅ | 78.7 | 0.7640 | 30.72 |
TensorRT (FP16) | ✅ | 41.5 | 0.7651 | 14.45 |
TensorRT (INT8) | ✅ | 23.3 | 0.4194 | 10.19 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 590.11 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 998.57 |
TF Leve | ✅ | 77.0 | 0.7643 | 2486.11 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3236.09 |
MNN | ✅ | 76.8 | 0.7661 | 335.78 |
NCNN | ✅ | 76.8 | 0.7674 | 188.43 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 46.6 |
TorchScript | ✅ | 97.6 | 0.7250 | 66.54 |
ONNX | ✅ | 97.0 | 0.7250 | 39.55 |
OpenVINO | ✅ | 97.3 | 0.7226 | 262.44 |
TensorRT (FP32) | ✅ | 99.2 | 0.7250 | 38.68 |
TensorRT (FP16) | ✅ | 51.9 | 0.7265 | 18.53 |
TensorRT (INT8) | ✅ | 30.9 | 0.4033 | 13.36 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 850.25 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1324.60 |
TF Leve | ✅ | 97.2 | 0.7250 | 3191.24 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4204.97 |
MNN | ✅ | 96.9 | 0.7225 | 414.41 |
NCNN | ✅ | 96.9 | 0.7252 | 237.74 |
Formato | Estado | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 86.00 |
TorchScript | ✅ | 218.1 | 0.8308 | 122.43 |
ONNX | ✅ | 217.5 | 0.8307 | 77.50 |
OpenVINO | ✅ | 217.8 | 0.8285 | 508.12 |
TensorRT (FP32) | ✅ | 219.5 | 0.8307 | 76.44 |
TensorRT (FP16) | ✅ | 112.0 | 0.8309 | 35.99 |
TensorRT (INT8) | ✅ | 61.6 | 0.4854 | 22.32 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1470.06 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2549.78 |
TF Leve | ✅ | 217.8 | 0.8308 | 7025.44 |
PaddlePaddle | ✅ | 434.8 | 0.8308 | 8364.89 |
MNN | ✅ | 217.3 | 0.8289 | 827.13 |
NCNN | ✅ | 217.3 | 0.8304 | 490.29 |
Benchmarked with Ultralytics 8.3.51
Explore mais esforços de avaliação comparativa do Seeed Studio executados em diferentes versões do hardware NVIDIA Jetson.
Reproduzir os nossos resultados
Para reproduzir os valores de referência Ultralytics acima referidos em todos os formatos de exportação, execute este código:
Exemplo
Note-se que os resultados dos testes de referência podem variar com base na configuração exacta de hardware e software de um sistema, bem como na carga de trabalho atual do sistema no momento em que os testes de referência são executados. Para obter os resultados mais fiáveis, utilize um conjunto de dados com um grande número de imagens, ou seja data='coco8.yaml' (4 val images), or
data='coco.yaml'` (5000 imagens val).
Melhores práticas ao utilizar NVIDIA Jetson
Ao utilizar o NVIDIA Jetson, existem algumas práticas recomendadas a seguir para permitir o máximo desempenho no NVIDIA Jetson com o YOLO11.
-
Ativar o modo de potência máxima
A ativação do modo MAX Power no Jetson garante que todos os núcleos CPU, GPU estão ligados.
-
Ativar os relógios Jetson
A ativação dos relógios Jetson garante que todos os núcleos CPU, GPU têm o seu relógio na frequência máxima.
-
Instalar a aplicação Jetson Stats
Podemos utilizar a aplicação jetson stats para monitorizar as temperaturas dos componentes do sistema e verificar outros detalhes do sistema, como ver CPU, GPU, utilização da RAM, alterar os modos de energia, definir relógios máximos, verificar as informações do JetPack
Próximos passos
Parabéns por ter configurado com êxito o YOLO11 no seu NVIDIA Jetson! Para mais informações e suporte, visite mais guias em Ultralytics YOLO11 Docs!
FAQ
Como posso implementar Ultralytics YOLO11 em dispositivos NVIDIA Jetson?
A implantação do Ultralytics YOLO11 em dispositivos NVIDIA Jetson é um processo simples. Primeiro, instale o seu dispositivo Jetson com o SDK JetPack NVIDIA . Em seguida, utilize uma imagem Docker pré-construída para uma configuração rápida ou instale manualmente os pacotes necessários. Os passos detalhados para cada abordagem podem ser encontrados nas secções Início rápido com o Docker e Início com a instalação nativa.
Que referências de desempenho posso esperar dos modelos YOLO11 em dispositivos NVIDIA Jetson?
YOLO11 models have been benchmarked on various NVIDIA Jetson devices showing significant performance improvements. For example, the TensorRT format delivers the best inference performance. The table in the Detailed Comparison Tables section provides a comprehensive view of performance metrics like mAP50-95 and inference time across different model formats.
Por que razão devo utilizar TensorRT para implementar YOLO11 em NVIDIA Jetson?
TensorRT é altamente recomendado para a implementação de modelos YOLO11 em NVIDIA Jetson devido ao seu ótimo desempenho. Ele acelera a inferência aproveitando os recursos GPU do Jetson, garantindo máxima eficiência e velocidade. Saiba mais sobre como converter para TensorRT e executar a inferência na secção Utilizar TensorRT em NVIDIA Jetson.
Como posso instalar o PyTorch e o Torchvision no NVIDIA Jetson?
To install PyTorch and Torchvision on NVIDIA Jetson, first uninstall any existing versions that may have been installed via pip. Then, manually install the compatible PyTorch and Torchvision versions for the Jetson's ARM64 architecture. Detailed instructions for this process are provided in the Installation of PyTorch and Torchvision section.
Quais são as práticas recomendadas para maximizar o desempenho em NVIDIA Jetson ao usar YOLO11?
Para maximizar o desempenho em NVIDIA Jetson com YOLO11, siga estas práticas recomendadas:
- Ativar o modo de alimentação MAX para utilizar todos os núcleos CPU e GPU .
- Ativar os relógios Jetson para executar todos os núcleos na sua frequência máxima.
- Instale a aplicação Jetson Stats para monitorizar as métricas do sistema.
Para obter comandos e detalhes adicionais, consulte a secção Melhores práticas ao utilizar o NVIDIA Jetson.