Saltar al contenido

Guía de inicio rápido: NVIDIA Jetson con Ultralytics YOLO11

Esta completa guía proporciona un recorrido detallado para implantar Ultralytics YOLO11 en los dispositivos Jetson deNVIDIA . Además, presenta pruebas de rendimiento para demostrar las capacidades de YOLO11 en estos pequeños y potentes dispositivos.



Observa: Cómo configurar NVIDIA Jetson con Ultralytics YOLO11

NVIDIA Ecosistema Jetson

Nota

Esta guía ha sido probada tanto con el Seeed Studio reComputer J4012, basado en NVIDIA Jetson Orin NX 16GB, que ejecuta la última versión estable de JetPack JP6.0, como con la versión de JetPack JP5.1.3 y el Seeed Studio reComputer J1020 v2, basado en NVIDIA Jetson Nano 4GB, que ejecuta la versión de JetPack JP4.6.1. Se espera que funcione con toda la gama de hardware Jetson de NVIDIA , tanto la más reciente como la heredada.

¿Qué es NVIDIA Jetson?

NVIDIA Jetson es una serie de placas de computación integradas diseñadas para llevar la computación acelerada de IA (inteligencia artificial) a los dispositivos periféricos. Estos dispositivos compactos y potentes se basan en la arquitectura GPU de NVIDIA y son capaces de ejecutar complejos algoritmos de IA y modelos de aprendizaje profundo directamente en el dispositivo, sin necesidad de depender de recursos informáticos en la nube. Las placas Jetson se utilizan a menudo en robótica, vehículos autónomos, automatización industrial y otras aplicaciones en las que la inferencia de IA debe realizarse localmente con baja latencia y alta eficiencia. Además, estas placas se basan en la arquitectura ARM64 y consumen menos energía que los dispositivos informáticos tradicionales de GPU .

NVIDIA Comparación de la serie Jetson

Jetson Orin es la última iteración de la familia Jetson de NVIDIA basada en la arquitectura NVIDIA Ampere que aporta un rendimiento de IA drásticamente mejorado en comparación con las generaciones anteriores. En la tabla siguiente se comparan algunos de los dispositivos Jetson del ecosistema.

Jetson AGX Orin 64 GBJetson Orin NX 16GBJetson Orin Nano 8GBJetson AGX XavierJetson Xavier NXJetson Nano
Rendimiento de la IA275 TOPS100 TOPS40 TOPs32 TOPS21 TOPS472 GFLOPS
GPU2048 núcleos NVIDIA Arquitectura Ampere GPU con 64 núcleos TensorArquitectura de 1024 núcleos NVIDIA Ampere GPU con 32 Tensor NúcleosArquitectura de 1024 núcleos NVIDIA Ampere GPU con 32 Tensor NúcleosArquitectura Volta de 512 núcleos NVIDIA GPU con 64 núcleos TensorArquitectura NVIDIA Volta™ de 384 núcleos GPU con 48 núcleos TensorArquitectura Maxwell™ de 128 núcleos NVIDIA GPU
GPU Frecuencia máxima1,3 GHz918 MHz625 MHz1377 MHz1100 MHz921MHz
CPU12 núcleos NVIDIA Arm® Cortex A78AE v8.2 64 bits CPU 3MB L2 + 6MB L38 núcleos NVIDIA Arm® Cortex A78AE v8.2 64 bits CPU 2MB L2 + 4MB L36 núcleos Arm® Cortex®-A78AE v8.2 de 64 bits CPU 1,5 MB L2 + 4 MB L38 núcleos NVIDIA Carmel Arm®v8.2 64 bits CPU 8MB L2 + 4MB L36 núcleos NVIDIA Carmel Arm®v8.2 64 bits CPU 6MB L2 + 4MB L3Procesador MPCore Arm® Cortex®-A57 de cuatro núcleos
CPU Frecuencia máxima2,2 GHz2,0 GHz1,5 GHz2,2 GHz1,9 GHz1,43 GHz
Memoria64 GB LPDDR5 de 256 bits 204,8 GB/s16 GB LPDDR5 de 128 bits 102,4 GB/s8 GB LPDDR5 de 128 bits 68 GB/s32 GB LPDDR4x de 256 bits 136,5 GB/s8 GB LPDDR4x de 128 bits 59,7 GB/s4 GB LPDDR4 de 64 bits 25,6 GB/s".

Para ver una tabla comparativa más detallada, visita la sección Especificaciones técnicas de la página oficial de NVIDIA Jetson.

¿Qué es NVIDIA JetPack?

NVIDIA El SDK Jet Pack que impulsa los módulos Jetson es la solución más completa y proporciona un entorno de desarrollo completo para crear aplicaciones de IA aceleradas de extremo a extremo y acorta el tiempo de comercialización. JetPack incluye Jetson Linux con gestor de arranque, núcleo Linux, entorno de escritorio Ubuntu y un conjunto completo de bibliotecas para la aceleración de la informática, multimedia, gráficos y visión por ordenador de GPU . También incluye muestras, documentación y herramientas para desarrolladores, tanto para el ordenador central como para el kit de desarrollador, y es compatible con SDK de nivel superior como DeepStream para análisis de vídeo en streaming, Isaac para robótica y Riva para IA conversacional.

Flash JetPack a NVIDIA Jetson

El primer paso tras hacerte con un dispositivo NVIDIA Jetson es flashear NVIDIA JetPack al dispositivo. Hay varias formas diferentes de flashear dispositivos NVIDIA Jetson.

  1. Si tienes un kit de desarrollo oficial de NVIDIA , como el kit de desarrollo Jetson Orin Nano, puedes descargar una imagen y preparar una tarjeta SD con JetPack para arrancar el dispositivo.
  2. Si posees cualquier otro Kit de Desarrollo de NVIDIA , puedes flashear JetPack en el dispositivo utilizando SDK Manager.
  3. Si tienes un dispositivo Seeed Studio reComputer J4012, puedes flashear JetPack en la SSD incluida y si tienes un dispositivo Seeed Studio reComputer J1020 v2, puedes flashear JetPack en la eMMC/ SSD.
  4. Si posees cualquier otro dispositivo de terceros alimentado por el módulo Jetson de NVIDIA , se recomienda que sigas el parpadeo de la línea de comandos.

Nota

Para los métodos 3 y 4 anteriores, después de flashear el sistema y arrancar el dispositivo, introduce "sudo apt update && sudo apt install nvidia-jetpack -y" en el terminal del dispositivo para instalar el resto de componentes de JetPack necesarios.

Soporte para JetPack basado en el dispositivo Jetson

La siguiente tabla muestra las versiones de NVIDIA JetPack compatibles con los distintos dispositivos NVIDIA Jetson.

JetPack 4JetPack 5JetPack 6
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano

Inicio rápido con Docker

La forma más rápida de empezar a utilizar Ultralytics YOLO11 en NVIDIA Jetson es ejecutarlo con imágenes Docker preconstruidas para Jetson. Consulta la tabla anterior y elige la versión de JetPack según el dispositivo Jetson que poseas.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

Una vez hecho esto, pasa a la sección Utilizar TensorRT en NVIDIA Jetson.

Empieza con la instalación nativa

Para una instalación nativa sin Docker, consulta los pasos siguientes.

Ejecutar en JetPack 6.x

Instala el paquete Ultralytics

Aquí instalaremos el paquete Ultralytics en la Jetson con dependencias opcionales para que podamos exportar los PyTorch modelos a otros formatos diferentes. Nos centraremos principalmente en las exportaciones deNVIDIA TensorRT porque TensorRT se asegurará de que podamos obtener el máximo rendimiento de los dispositivos Jetson.

  1. Actualizar la lista de paquetes, instalar pip y actualizar a la última versión

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Instala ultralytics paquete pip con dependencias opcionales

    pip install ultralytics[export]
    
  3. Reinicia el dispositivo

    sudo reboot
    

Instala PyTorch y Torchvision

La instalación anterior de ultralytics instalará Torch y Torchvision. Sin embargo, estos 2 paquetes instalados mediante pip no son compatibles para ejecutarse en la plataforma Jetson, basada en la arquitectura ARM64. Por lo tanto, tenemos que instalar manualmente PyTorch pip wheel y compilar/instalar Torchvision desde el código fuente.

Instala torch 2.3.0 y torchvision 0.18 según JP6.0

sudo apt-get install libopenmpi-dev libopenblas-base libomp-dev -y
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.3.0-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.18.0a0+6043bc2-cp310-cp310-linux_aarch64.whl

Visita la páginaPyTorch para Jetson para acceder a todas las versiones de PyTorch para las distintas versiones de JetPack. Para obtener una lista más detallada sobre la compatibilidad de PyTorchy Torchvision, visita la página de compatibilidad dePyTorch y Torchvision.

Instala onnxruntime-gpu

En onnxruntime-gpu alojado en PyPI no tiene aarch64 binarios para la Jetson. Así que tenemos que instalar manualmente este paquete. Este paquete es necesario para algunas de las exportaciones.

Todos diferentes onnxruntime-gpu se enumeran los paquetes correspondientes a las distintas versiones de JetPack y Python aquí. Sin embargo, aquí descargaremos e instalaremos onnxruntime-gpu 1.18.0 con Python3.10 apoyo.

wget https://nvidia.box.com/shared/static/48dtuob7meiw6ebgfsfqakc9vse62sg4.whl -O onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
pip install onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl

Nota

onnxruntime-gpu revertirá automáticamente la versión de numpy a la última. Así que tenemos que reinstalar numpy a 1.23.5 para solucionar un problema ejecutando:

pip install numpy==1.23.5

Funciona con JetPack 5.x

Instala el paquete Ultralytics

Aquí instalaremos el paquete Ultralytics en el Jetson con dependencias opcionales para que podamos exportar los modelos PyTorch a otros formatos diferentes. Nos centraremos principalmente en las exportaciones deNVIDIA TensorRT porque TensorRT nos asegurará el máximo rendimiento de los dispositivos Jetson.

  1. Actualizar la lista de paquetes, instalar pip y actualizar a la última versión

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Instala ultralytics paquete pip con dependencias opcionales

    pip install ultralytics[export]
    
  3. Reinicia el dispositivo

    sudo reboot
    

Instala PyTorch y Torchvision

La instalación anterior de ultralytics instalará Torch y Torchvision. Sin embargo, estos 2 paquetes instalados mediante pip no son compatibles para ejecutarse en la plataforma Jetson, basada en la arquitectura ARM64. Por lo tanto, tenemos que instalar manualmente PyTorch pip wheel y compilar/instalar Torchvision desde el código fuente.

  1. Desinstala PyTorch y Torchvision instalados actualmente

    pip uninstall torch torchvision
    
  2. Instala PyTorch 2.1.0 según JP5.1.3

    sudo apt-get install -y libopenblas-base libopenmpi-dev
    wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    
  3. Instala Torchvision v0.16.2 según PyTorch v2.1.0

    sudo apt install -y libjpeg-dev zlib1g-dev
    git clone https://github.com/pytorch/vision torchvision
    cd torchvision
    git checkout v0.16.2
    python3 setup.py install --user
    

Visita la páginaPyTorch para Jetson para acceder a todas las versiones de PyTorch para las distintas versiones de JetPack. Para obtener una lista más detallada sobre la compatibilidad de PyTorchy Torchvision, visita la página de compatibilidad dePyTorch y Torchvision.

Instala onnxruntime-gpu

En onnxruntime-gpu alojado en PyPI no tiene aarch64 binarios para la Jetson. Así que tenemos que instalar manualmente este paquete. Este paquete es necesario para algunas de las exportaciones.

Todos diferentes onnxruntime-gpu se enumeran los paquetes correspondientes a las distintas versiones de JetPack y Python aquí. Sin embargo, aquí descargaremos e instalaremos onnxruntime-gpu 1.17.0 con Python3.8 apoyo.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Nota

onnxruntime-gpu revertirá automáticamente la versión de numpy a la última. Así que tenemos que reinstalar numpy a 1.23.5 para solucionar un problema ejecutando:

pip install numpy==1.23.5

Utiliza TensorRT en NVIDIA Jetson

De todos los formatos de exportación de modelos que admite Ultralytics, TensorRT ofrece el mejor rendimiento de inferencia cuando se trabaja con dispositivos NVIDIA Jetson y nuestra recomendación es utilizar TensorRT con Jetson. También tenemos un documento detallado sobre TensorRT aquí.

Convierte el modelo a TensorRT y ejecuta la inferencia

El modelo YOLO11n en formato PyTorch se convierte a TensorRT para ejecutar la inferencia con el modelo exportado.

Ejemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine  # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Utiliza NVIDIA Acelerador de Aprendizaje Profundo (ADL)

NVIDIA El Acelerador de Aprendizaje Profundo (DLA) es un componente de hardware especializado integrado en los dispositivos NVIDIA Jetson que optimiza la inferencia del aprendizaje profundo para obtener eficiencia energética y rendimiento. Al descargar tareas del GPU (liberándolo para procesos más intensivos), el DLA permite que los modelos se ejecuten con un menor consumo de energía manteniendo un alto rendimiento, ideal para sistemas integrados y aplicaciones de IA en tiempo real.

Los siguientes dispositivos Jetson están equipados con hardware ADL:

  • Jetson Orin NX 16GB
  • Serie Jetson AGX Orin
  • Jetson AGX Serie Xavier
  • Jetson Xavier Serie NX

Ejemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True  # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Nota

Visita la página Exportar para acceder a argumentos adicionales al exportar modelos a diferentes formatos de modelo

NVIDIA Benchmarks Jetson Orin YOLO11

El equipo de Ultralytics ejecutó las pruebas de YOLO11 en 10 formatos de modelo diferentes, midiendo la velocidad y la precisión: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN. Las pruebas se ejecutaron en el reComputer J4012 de Seeed Studio, equipado con el dispositivo Jetson Orin NX de 16 GB, con una precisión FP32 y un tamaño de imagen de entrada predeterminado de 640.

Cuadro comparativo

Aunque todas las exportaciones de modelos funcionan con NVIDIA Jetson, sólo hemos incluido PyTorch, TorchScript, TensorRT para la tabla comparativa de abajo porque, hacen uso del GPU en la Jetson y está garantizado que producen los mejores resultados. Todas las demás exportaciones sólo utilizan el CPU y el rendimiento no es tan bueno como el de las tres anteriores. Puedes encontrar puntos de referencia para todas las exportaciones en la sección que sigue a este gráfico.

NVIDIA Ecosistema Jetson

Tabla comparativa detallada

La tabla siguiente representa los resultados de la prueba comparativa para cinco modelos diferentes (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) en diez formatos distintos (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel , TF GraphDef , TF Lite, PaddlePaddle, NCNN), dándonos el estado, el tamaño, la métrica mAP50-95(B) y el tiempo de inferencia de cada combinación.

Rendimiento

FormatoEstadoTamaño en disco (MB)mAP50-95(B)Tiempo de inferencia (ms/im)
PyTorch5.40.617619.80
TorchScript10.50.610013.30
ONNX10.20.608267.92
OpenVINO10.40.6082118.21
TensorRT (FP32)14.10.61007.94
TensorRT (FP16)8.30.60824.80
TensorRT (INT8)6.60.32564.17
TF SavedModel25.80.6082185.88
TF GraphDef10.30.6082256.66
TF Lite10.30.6082284.64
PaddlePaddle20.40.6082477.41
NCNN10.20.610632.18
FormatoEstadoTamaño en disco (MB)mAP50-95(B)Tiempo de inferencia (ms/im)
PyTorch18.40.752620.20
TorchScript36.50.741623.42
ONNX36.30.7416162.01
OpenVINO36.40.7416159.61
TensorRT (FP32)40.30.741613.93
TensorRT (FP16)21.70.74167.47
TensorRT (INT8)13.60.31795.66
TF SavedModel91.10.7416316.46
TF GraphDef36.40.7416506.71
TF Lite36.40.7416842.97
PaddlePaddle72.50.74161172.57
NCNN36.20.741966.00
FormatoEstadoTamaño en disco (MB)mAP50-95(B)Tiempo de inferencia (ms/im)
PyTorch38.80.759536.70
TorchScript77.30.764350.95
ONNX76.90.7643416.34
OpenVINO77.10.7643370.99
TensorRT (FP32)81.50.764030.49
TensorRT (FP16)42.20.765814.93
TensorRT (INT8)24.30.411810.32
TF SavedModel192.70.7643597.08
TF GraphDef77.00.76431016.12
TF Lite77.00.76432494.60
PaddlePaddle153.80.76433218.99
NCNN76.80.7691192.77
FormatoEstadoTamaño en disco (MB)mAP50-95(B)Tiempo de inferencia (ms/im)
PyTorch49.00.747547.6
TorchScript97.60.725066.36
ONNX97.00.7250532.58
OpenVINO97.30.7250477.55
TensorRT (FP32)101.60.725038.71
TensorRT (FP16)52.60.726519.35
TensorRT (INT8)31.60.385613.50
TF SavedModel243.30.7250895.24
TF GraphDef97.20.72501301.19
TF Lite97.20.72503202.93
PaddlePaddle193.90.72504206.98
NCNN96.90.7252225.75
FormatoEstadoTamaño en disco (MB)mAP50-95(B)Tiempo de inferencia (ms/im)
PyTorch109.30.828885.60
TorchScript218.10.8308121.67
ONNX217.50.83081073.14
OpenVINO217.80.8308955.60
TensorRT (FP32)221.60.830775.84
TensorRT (FP16)113.10.829535.75
TensorRT (INT8)62.20.478322.23
TF SavedModel545.00.83081497.40
TF GraphDef217.80.83082552.42
TF Lite217.80.83087044.58
PaddlePaddle434.90.83088386.73
NCNN217.30.8304486.36

Explora más pruebas comparativas de Seeed Studio ejecutadas en diferentes versiones del hardware NVIDIA Jetson.

Reproducir nuestros resultados

Para reproducir las pruebas anteriores de Ultralytics en todos los formatos de exportación, ejecuta este código:

Ejemplo

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
results = model.benchmarks(data="coco8.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml imgsz=640

Ten en cuenta que los resultados de las pruebas comparativas pueden variar en función de la configuración exacta de hardware y software de un sistema, así como de la carga de trabajo actual del sistema en el momento de ejecutar las pruebas comparativas. Para obtener resultados más fiables, utiliza un conjunto de datos con un gran número de imágenes, es decir data='coco8.yaml' (4 val images), ordata='coco.yaml'` (5000 imágenes val).

Buenas prácticas al utilizar NVIDIA Jetson

Cuando utilices NVIDIA Jetson, hay un par de buenas prácticas que debes seguir para conseguir el máximo rendimiento en NVIDIA Jetson ejecutando YOLO11.

  1. Activar el modo de potencia MAX

    Activando el Modo MAX Power en el Jetson te asegurarás de que todos los núcleos CPU, GPU están encendidos.

    sudo nvpmodel -m 0
    
  2. Activar los Relojes Jetson

    Si activas los Relojes Jetson, te asegurarás de que todos los núcleos CPU, GPU estén sincronizados a su frecuencia máxima.

    sudo jetson_clocks
    
  3. Instalar la aplicación Jetson Stats

    Podemos utilizar la aplicación jetson stats para monitorizar las temperaturas de los componentes del sistema y comprobar otros detalles del sistema como ver CPU, GPU, utilización de la RAM, cambiar los modos de energía, poner los relojes al máximo, comprobar la información de JetPack

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Estadísticas Jetson

Próximos pasos

¡Enhorabuena por haber configurado con éxito YOLO11 en tu NVIDIA Jetson! ¡Para más información y ayuda, visita la guía Ultralytics YOLO11 Docs!

PREGUNTAS FRECUENTES

¿Cómo despliego Ultralytics YOLO11 en dispositivos NVIDIA Jetson?

Desplegar Ultralytics YOLO11 en dispositivos Jetson NVIDIA es un proceso sencillo. En primer lugar, flashea tu dispositivo Jetson con el SDK JetPack de NVIDIA . A continuación, utiliza una imagen Docker precompilada para una configuración rápida o instala manualmente los paquetes necesarios. Puedes encontrar los pasos detallados para cada enfoque en las secciones Inicio rápido con Docker e Inicio con instalación nativa.

¿Qué pruebas de rendimiento puedo esperar de los modelos YOLO11 en los dispositivos Jetson de NVIDIA ?

Los modelos YOLO11 se han sometido a pruebas comparativas en varios dispositivos Jetson de NVIDIA , mostrando mejoras significativas en el rendimiento. Por ejemplo, el formato TensorRT ofrece el mejor rendimiento de inferencia. La tabla de la sección Tabla comparativa detallada ofrece una visión completa de las métricas de rendimiento como mAP50-95 y el tiempo de inferencia en los distintos formatos de modelo.

¿Por qué debería utilizar TensorRT para desplegar YOLO11 en NVIDIA Jetson?

TensorRT es muy recomendable para desplegar modelos YOLO11 en NVIDIA Jetson debido a su rendimiento óptimo. Acelera la inferencia aprovechando las capacidades de GPU de la Jetson, garantizando la máxima eficacia y velocidad. Obtén más información sobre cómo convertir a TensorRT y ejecutar la inferencia en la sección Utilizar TensorRT en NVIDIA Jetson.

¿Cómo puedo instalar PyTorch y Torchvision en NVIDIA Jetson?

Para instalar PyTorch y Torchvision en NVIDIA Jetson, desinstala primero cualquier versión existente que se haya instalado mediante pip. A continuación, instala manualmente las versiones compatibles de PyTorch y Torchvision para la arquitectura ARM64 del Jetson. Encontrarás instrucciones detalladas para este proceso en la sección Instalar PyTorch y Torchvision.

¿Cuáles son las mejores prácticas para maximizar el rendimiento en NVIDIA Jetson cuando se utiliza YOLO11?

Para maximizar el rendimiento en NVIDIA Jetson con YOLO11, sigue estas prácticas recomendadas:

  1. Activa el modo MAX Power para utilizar todos los núcleos CPU y GPU .
  2. Activa los Relojes Jetson para que todos los núcleos funcionen a su frecuencia máxima.
  3. Instala la aplicación Jetson Stats para controlar las métricas del sistema.

Para obtener comandos y detalles adicionales, consulta la sección Buenas prácticas al utilizar NVIDIA Jetson.

📅 C reado hace 7 meses ✏️ Actualizado hace 4 días

Comentarios