İçeriğe geç

Hızlı Başlangıç Kılavuzu: Ultralytics YOLO11 ile NVIDIA Jetson

Bu kapsamlı kılavuz, Ultralytics YOLO11'i NVIDIA Jetson cihazlarına dağıtmak için ayrıntılı bir yol haritası sunar. Ek olarak, YOLO11'in bu küçük ve güçlü cihazlardaki yeteneklerini göstermek için performans kıyaslamalarını sergilemektedir.

Yeni ürün desteği

Bu kılavuzu, 40 W ile 130 W arasında yapılandırılabilen güçle 2070 FP4 TFLOPS'a kadar yapay zeka işlemi ve 128 GB bellek sunan en yeni NVIDIA J etson AGX Thor Geliştirici Kiti ile güncelledik. NVIDIA Jetson AGX Orin'den 7,5 kat daha yüksek yapay zeka işlemi ve en popüler yapay zeka modellerini sorunsuz bir şekilde çalıştırmak için 3,5 kat daha iyi enerji verimliliği sunar.



İzle: Ultralytics YOLO11, NVIDIA JETSON Cihazlarında Nasıl Kullanılır

NVIDIA Jetson Ekosistemi

Not

Bu kılavuz, JP7.0'ın en son kararlı JetPack sürümünü çalıştıran NVIDIA Jetson AGX Thor Geliştirici Kiti, JP6.2'nin JetPack sürümünü çalıştıran NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB), JP6'nın JetPack sürümünü çalıştıran NVIDIA Jetson Orin Nano Super Geliştirici Kiti ile test edilmiştir. 1, JP6.0/JPack JP5.1.3 JetPack sürümünü çalıştıran NVIDIA Jetson Orin NX 16GB tabanlı Seeed Studio reComputer J4012 ve JP4.6 .1 JetPack sürümünü çalıştıran NVIDIA Jetson Nano 4GB tabanlı Seeed Studio reComputer J1020 v2. En yeni ve eski dahil olmak üzere tüm NVIDIA Jetson donanım serisinde çalışması beklenmektedir.

NVIDIA Jetson nedir?

NVIDIA Jetson, hızlandırılmış yapay zeka (AI) işlemeyi uç cihazlara getirmek için tasarlanmış bir dizi gömülü bilgi işlem kartıdır. Bu kompakt ve güçlü cihazlar, NVIDIA'nın GPU mimarisi üzerine inşa edilmiştir ve bulut bilişim kaynaklarına ihtiyaç duymadan karmaşık AI algoritmalarını ve derin öğrenme modellerini doğrudan cihaz üzerinde çalıştırabilir. Jetson kartları genellikle robotik, otonom araçlar, endüstriyel otomasyon ve AI çıkarımının düşük gecikme süresi ve yüksek verimlilikle yerel olarak yapılması gereken diğer uygulamalarda kullanılır. Ek olarak, bu kartlar ARM64 mimarisine dayanır ve geleneksel GPU bilgi işlem cihazlarına kıyasla daha düşük güçte çalışır.

NVIDIA Jetson Serisi Karşılaştırması

NVIDIA Jetson AGX Thor, NVIDIA Blackwell mimarisine dayanan NVIDIA Jetson ailesinin en son yinelemesidir ve önceki nesillere kıyasla büyük ölçüde geliştirilmiş yapay zeka performansı sunar. Aşağıdaki tabloda ekosistemdeki birkaç Jetson cihazı karşılaştırılmaktadır.

Jetson AGX ThorJetson AGX Orin 64GBJetson Orin NX 16GBJetson Orin Nano SüperJetson AGX XavierJetson Xavier NXJetson Nano
Yapay Zeka Performansı2070 TFLOPS275 TOPS100 TOPS67 TOPS32 TOPS21 TOPS472 GFLOPS
GPU96 Tensor Çekirdeğine sahip 2560 çekirdekli NVIDIA Blackwell mimarili GPU64 adet Tensor Çekirdeğine sahip 2048 çekirdekli NVIDIA Ampere mimarisi GPU32 Tensor Çekirdeği ile 1024 çekirdekli NVIDIA Ampere mimarisi GPU32 Tensor Çekirdeği ile 1024 çekirdekli NVIDIA Ampere mimarisi GPU64 Tensor Çekirdeği ile 512 çekirdekli NVIDIA Volta mimarisi GPU48 Tensor Çekirdeği ile 384 çekirdekli NVIDIA Volta™ mimarisi GPU128 çekirdekli NVIDIA Maxwell™ mimarisi GPU
GPU Maksimum Frekansı1,57 GHz1.3 GHz918 MHz1020 MHz1377 MHz1100 MHz921MHz
CPU14 çekirdekli Arm® Neoverse®-V3AE 64 bit CPU 1MB L2 + 16MB L312 çekirdekli NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L38 çekirdekli NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L36 çekirdekli Arm® Cortex®-A78AE v8.2 64-bit CPU 1.5MB L2 + 4MB L38 çekirdekli NVIDIA Carmel Arm®v8.2 64-bit CPU 8MB L2 + 4MB L36 çekirdekli NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3Dört Çekirdekli Arm® Cortex®-A57 MPCore işlemci
CPU Maksimum Frekansı2,6 GHz2.2 GHz2.0 GHz1.7 GHz2.2 GHz1.9 GHz1.43GHz
Bellek128GB 256-bit LPDDR5X 273GB/sn64GB 256-bit LPDDR5 204.8GB/s16GB 128-bit LPDDR5 102.4GB/s8GB 128-bit LPDDR5 102 GB/s32GB 256-bit LPDDR4x 136.5GB/s8GB 128-bit LPDDR4x 59.7GB/s4GB 64-bit LPDDR4 25,6GB/sn

Daha ayrıntılı bir karşılaştırma tablosu için lütfen resmi NVIDIA Jetson sayfasındaki Teknik Özellikleri Karşılaştır bölümünü ziyaret edin.

NVIDIA JetPack nedir?

Jetson modüllerine güç veren NVIDIA JetPack SDK, uçtan uca hızlandırılmış yapay zeka uygulamaları oluşturmak ve pazara sunma süresini kısaltmak için en kapsamlı çözümdür ve eksiksiz bir geliştirme ortamı sağlar. JetPack, önyükleyici, Linux çekirdeği, Ubuntu masaüstü ortamı ve GPU hesaplama, multimedya, grafik ve bilgisayar görüşü'nün hızlandırılması için eksiksiz bir kitaplık seti ile Jetson Linux'u içerir. Ayrıca, hem ana bilgisayar hem de geliştirme kiti için örnekler, belgeler ve geliştirici araçları içerir ve akışlı video analizi için DeepStream, robotik için Isaac ve konuşmaya dayalı yapay zeka için Riva gibi daha üst düzey SDK'ları destekler.

NVIDIA Jetson'a JetPack'i Flash'la Yükleme

Bir NVIDIA Jetson cihazı edindikten sonraki ilk adım, cihaza NVIDIA JetPack'i yüklemektir. NVIDIA Jetson cihazlarını yüklemenin birkaç farklı yolu vardır.

  1. Jetson AGX Thor Geliştirici Kiti gibi resmi bir NVIDIA Geliştirme Kitine sahipseniz, bir görüntü indirebilir ve JetPack'i birlikte verilen SSD'ye flaşlamak için önyüklenebilir bir USB bellek hazırlayabilirsiniz.
  2. Jetson Orin Nano Geliştirici Kiti gibi resmi bir NVIDIA Geliştirme Kitiniz varsa, bir görüntü indirebilir ve cihazı başlatmak için JetPack ile bir SD kart hazırlayabilirsiniz.
  3. Başka bir NVIDIA Geliştirme Kitiniz varsa, SDK Manager'ı kullanarak JetPack'i cihaza yazabilirsiniz.
  4. Bir Seeed Studio reComputer J4012 cihazınız varsa, JetPack'i birlikte verilen SSD'ye yazabilirsiniz ve bir Seeed Studio reComputer J1020 v2 cihazınız varsa, JetPack'i eMMC/ SSD'ye yazabilirsiniz.
  5. NVIDIA Jetson modülüyle çalışan başka bir üçüncü taraf cihazınız varsa, komut satırı ile yazma işlemini takip etmeniz önerilir.

Not

Yukarıdaki 1, 4 ve 5. yöntemler için, sistemi flaşladıktan ve cihazı başlattıktan sonra, gerekli tüm diğer JetPack bileşenlerini yüklemek için lütfen cihaz terminaline "sudo apt update && sudo apt install nvidia-y" yazın.

Jetson Cihazına Dayalı JetPack Desteği

Aşağıdaki tabloda, farklı NVIDIA Jetson cihazları tarafından desteklenen NVIDIA JetPack sürümleri vurgulanmaktadır.

JetPack 4JetPack 5JetPack 6JetPack 7
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano
Jetson AGX Thor

Docker ile Hızlı Başlangıç

NVIDIA Jetson'da Ultralytics YOLO11'e başlamanın en hızlı yolu, Jetson için önceden oluşturulmuş docker görüntüleriyle çalıştırmaktır. Yukarıdaki tabloya bakın ve sahip olduğunuz Jetson cihazına göre JetPack sürümünü seçin.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

Çok yakında! Bizi izlemeye devam edin!

Bu işlem tamamlandıktan sonra, NVIDIA Jetson'da TensorRT Kullanımı bölümüne geçin.

Yerel Kurulum ile başlayın

Docker olmadan yerel bir kurulum için lütfen aşağıdaki adımlara bakın.

JetPack 7.0 üzerinde çalıştır

Ultralytics Paketini Kurulumu

Burada, PyTorch modellerini diğer farklı formatlara aktarabilmemiz için isteğe bağlı bağımlılıklarla birlikte Ultralytics paketini Jetson'a kuracağız. Esas olarak NVIDIA TensorRT aktarımlarına odaklanacağız çünkü TensorRT, Jetson cihazlarından maksimum performansı almamızı sağlayacaktır.

  1. Paketler listesini güncelleyin, pip'i kurun ve en son sürüme yükseltin

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Kurulum ultralytics isteğe bağlı bağımlılıkları olan pip paketi

    pip install ultralytics[export]
    
  3. Cihazı yeniden başlatın

    sudo reboot
    

PyTorch ve Torchvision'ı yükle

Yukarıdaki ultralytics kurulumu Torch ve Torchvision'ı yükleyecektir. Ancak pip ile yüklenen bu 2 paket JetPack 7.0 ve CUDA 13 ile gelen Jetson AGX Thor üzerinde çalışmak için uyumlu değildir. Bu nedenle, bunları manuel olarak yüklememiz gerekir.

Kurulum torch ve torchvision JP7.0'a göre

pip install torch torchvision --index-url https://download.pytorch.org/whl/cu130

Kurulum onnxruntime-gpu

onnxruntime-gpu PyPI'de barındırılan paket şuna sahip değil: aarch64 Jetson için ikili dosyalar. Bu nedenle bu paketi manuel olarak kurmamız gerekiyor. Bu paket, bazı dışa aktarmalar için gereklidir.

Burada indireceğiz ve kuracağız onnxruntime-gpu 1.24.0 ile Python3.12 destek.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.24.0-cp312-cp312-linux_aarch64.whl

JetPack 6.1 üzerinde çalıştırın

Ultralytics Paketini Kurulumu

Burada, PyTorch modellerini diğer farklı formatlara aktarabilmemiz için isteğe bağlı bağımlılıklarla birlikte Ultralytics paketini Jetson'a kuracağız. Esas olarak NVIDIA TensorRT aktarımlarına odaklanacağız çünkü TensorRT, Jetson cihazlarından maksimum performansı almamızı sağlayacaktır.

  1. Paketler listesini güncelleyin, pip'i kurun ve en son sürüme yükseltin

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Kurulum ultralytics isteğe bağlı bağımlılıkları olan pip paketi

    pip install ultralytics[export]
    
  3. Cihazı yeniden başlatın

    sudo reboot
    

PyTorch ve Torchvision'ı yükle

Yukarıdaki ultralytics kurulumu Torch ve Torchvision'ı yükleyecektir. Ancak pip ile yüklenen bu iki paket ARM64 mimarisine dayanan Jetson platformu ile uyumlu değildir. Bu nedenle, önceden oluşturulmuş bir PyTorch pip tekerleğini manuel olarak yüklememiz ve Torchvision'ı kaynaktan derlememiz veya yüklememiz gerekir.

Kurulum torch 2.5.0 ve torchvision 0.20 JP6.1'e göre

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl

Not

Farklı JetPack sürümleri için PyTorch'un tüm farklı versiyonlarına erişmek için Jetson için PyTorch sayfasına gidin. PyTorch, Torchvision uyumluluğu hakkında daha ayrıntılı bir liste için PyTorch ve Torchvision uyumluluk sayfasını ziyaret edin.

Kurulum cuSPARSELt ile ilgili bir bağımlılık sorununu düzeltmek için torch 2.5.0

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev

Kurulum onnxruntime-gpu

onnxruntime-gpu PyPI'de barındırılan paket şuna sahip değil: aarch64 Jetson için ikili dosyalar. Bu nedenle bu paketi manuel olarak kurmamız gerekiyor. Bu paket, bazı dışa aktarmalar için gereklidir.

Mevcut tüm onnxruntime-gpu paketler—JetPack sürümüne, Python sürümüne ve diğer uyumluluk ayrıntılarına göre düzenlenmiş—içinde Jetson Zoo ONNX Runtime uyumluluk matrisi. Burada indirecek ve kuracağız onnxruntime-gpu 1.20.0 ile Python3.10 destek.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl

Not

onnxruntime-gpu numpy sürümünü otomatik olarak en son sürüme geri döndürecektir. Bu nedenle numpy'yi tekrar kurmamız gerekiyor: 1.23.5 şu komutu çalıştırarak bir sorunu düzeltmek için:

pip install numpy==1.23.5

JetPack 5.1.2 üzerinde çalıştırın

Ultralytics Paketini Kurulumu

Burada, PyTorch modellerini diğer farklı formatlara aktarabilmemiz için isteğe bağlı bağımlılıklarla birlikte Ultralytics paketini Jetson'a kuracağız. Esas olarak NVIDIA TensorRT aktarımlarına odaklanacağız çünkü TensorRT, Jetson cihazlarından maksimum performansı almamızı sağlayacaktır.

  1. Paketler listesini güncelleyin, pip'i kurun ve en son sürüme yükseltin

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Kurulum ultralytics isteğe bağlı bağımlılıkları olan pip paketi

    pip install ultralytics[export]
    
  3. Cihazı yeniden başlatın

    sudo reboot
    

PyTorch ve Torchvision'ı yükle

Yukarıdaki ultralytics kurulumu Torch ve Torchvision'ı yükleyecektir. Ancak pip ile yüklenen bu iki paket ARM64 mimarisine dayanan Jetson platformu ile uyumlu değildir. Bu nedenle, önceden oluşturulmuş bir PyTorch pip tekerleğini manuel olarak yüklememiz ve Torchvision'ı kaynaktan derlememiz veya yüklememiz gerekir.

  1. Şu anda kurulu olan PyTorch ve Torchvision'ı kaldırın

    pip uninstall torch torchvision
    
  2. Kurulum torch 2.2.0 ve torchvision 0.17.2 JP5.1.2'ye göre

    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.2.0-cp38-cp38-linux_aarch64.whl
    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.17.2+c1d70fe-cp38-cp38-linux_aarch64.whl
    

Not

Farklı JetPack sürümleri için PyTorch'un tüm farklı versiyonlarına erişmek için Jetson için PyTorch sayfasına gidin. PyTorch, Torchvision uyumluluğu hakkında daha ayrıntılı bir liste için PyTorch ve Torchvision uyumluluk sayfasını ziyaret edin.

Kurulum onnxruntime-gpu

onnxruntime-gpu PyPI'de barındırılan paket şuna sahip değil: aarch64 Jetson için ikili dosyalar. Bu nedenle bu paketi manuel olarak kurmamız gerekiyor. Bu paket, bazı dışa aktarmalar için gereklidir.

Mevcut tüm onnxruntime-gpu paketler—JetPack sürümüne, Python sürümüne ve diğer uyumluluk ayrıntılarına göre düzenlenmiş—içinde Jetson Zoo ONNX Runtime uyumluluk matrisi. Burada indirecek ve kuracağız onnxruntime-gpu 1.17.0 ile Python3.8 destek.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Not

onnxruntime-gpu numpy sürümünü otomatik olarak en son sürüme geri döndürecektir. Bu nedenle numpy'yi tekrar kurmamız gerekiyor: 1.23.5 şu komutu çalıştırarak bir sorunu düzeltmek için:

pip install numpy==1.23.5

NVIDIA Jetson'da TensorRT kullanın

Ultralytics tarafından desteklenen tüm model dışa aktarma biçimleri arasında TensorRT, NVIDIA Jetson cihazlarında en yüksek çıkarım performansını sunar ve bu da onu Jetson dağıtımları için en iyi önerimiz yapar. Kurulum talimatları ve gelişmiş kullanım için özel TensorRT entegrasyon kılavuzumuza bakın.

Modeli TensorRT'ye Dönüştürün ve Çıkarım Çalıştırın

PyTorch formatındaki YOLO11n modeli, dışa aktarılan modelle çıkarım çalıştırmak için TensorRT'ye dönüştürülür.

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Not

Modelleri farklı model formatlarına aktarırken ek argümanlara erişmek için Dışa Aktarma sayfasına gidin

NVIDIA Derin Öğrenme Hızlandırıcısı'nı (DLA) kullanın

NVIDIA Derin Öğrenme Hızlandırıcısı (DLA), NVIDIA Jetson cihazlarına yerleştirilmiş, enerji verimliliği ve performans için derin öğrenme çıkarımını optimize eden özel bir donanım bileşenidir. Görevleri GPU'dan boşaltarak (daha yoğun işlemler için serbest bırakarak) DLA, modellerin daha düşük güç tüketimiyle çalışmasını sağlarken yüksek verimi korur, bu da gömülü sistemler ve gerçek zamanlı yapay zeka uygulamaları için idealdir.

Aşağıdaki Jetson cihazları, DLA donanımına sahiptir:

Jetson CihazıDLA ÇekirdekleriDLA Maksimum Frekansı
Jetson AGX Orin Serisi21.6 GHz
Jetson Orin NX 16GB2614 MHz
Jetson Orin NX 8GB1614 MHz
Jetson AGX Xavier Serisi21.4 GHz
Jetson Xavier NX Serisi21.1 GHz

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
# Once DLA core number is specified at export, it will use the same core at inference
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Not

DLA dışa aktarımlarını kullanırken, bazı katmanlar DLA üzerinde çalışmayı desteklemeyebilir ve yürütme için GPU'ya geri dönebilir. Bu geri dönüş, ek gecikmeye neden olabilir ve genel çıkarım performansını etkileyebilir. Bu nedenle, DLA öncelikle TensorRT'nin tamamen GPU üzerinde çalışmasına kıyasla çıkarım gecikmesini azaltmak için tasarlanmamıştır. Bunun yerine, temel amacı verimi artırmak ve enerji verimliliğini iyileştirmektir.

NVIDIA Jetson YOLO11 Karşılaştırmaları

YOLO11 kıyaslamaları Ultralytics ekibi tarafından hız ve doğruluğu ölçen 11 farklı model formatı üzerinde gerçekleştirilmiştir: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch. Kıyaslamalar NVIDIA Jetson AGX Thor Geliştirici Kiti, NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB), NVIDIA Jetson Orin Nano Super Geliştirici Kiti ve Jetson Orin NX 16GB cihazı ile çalışan Seeed Studio reComputer J4012 üzerinde FP32 hassasiyetinde ve varsayılan giriş görüntü boyutu 640 olacak şekilde gerçekleştirilmiştir.

Karşılaştırma Grafikleri

Tüm model dışa aktarımları NVIDIA Jetson ile çalışmasına rağmen, aşağıdaki karşılaştırma tablosuna yalnızca PyTorch, TorchScript, TensorRT'yi dahil ettik, çünkü bunlar Jetson'daki GPU'yu kullanıyor ve en iyi sonuçları üretecekleri garanti ediliyor. Diğer tüm dışa aktarımlar yalnızca CPU'yu kullanır ve performans yukarıdaki üçü kadar iyi değildir. Tüm dışa aktarımlar için kıyaslamaları bu tablodan sonraki bölümde bulabilirsiniz.

NVIDIA Jetson AGX Thor Geliştirici Kiti

Jetson AGX Thor Karşılaştırmaları
Ultralytics 8.3.226 ile karşılaştırıldı

NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB)

Jetson AGX Orin Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

NVIDIA Jetson Orin Nano Süper Geliştirici Kiti

Jetson Orin Nano Süper Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

NVIDIA Jetson Orin NX 16GB

Jetson Orin NX 16GB Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

Ayrıntılı Karşılaştırma Tabloları

Aşağıdaki tablo, beş farklı model (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) için 11 farklı formattaPyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch) kıyaslama sonuçlarını temsil etmekte ve bize her kombinasyon için durum, boyut, mAP50-95(B) metriği ve çıkarım süresini vermektedir.

NVIDIA Jetson AGX Thor Geliştirici Kiti

Performans

FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch5.40.50704.1
TorchScript10.50.50833.61
ONNX10.20.50764.8
OpenVINO10.40.505816.48
TensorRT (FP32)12.60.50771.70
TensorRT (FP16)7.70.50751.20
TensorRT (INT8)6.20.48581.29
TF SavedModel25.70.507640.35
TF GraphDef10.30.507640.55
TF Lite10.30.5075206.74
MNN10.10.507523.47
NCNN10.20.504122.05
ExecuTorch10.20.507534.28
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch18.40.57706.10
TorchScript36.60.57835.33
ONNX36.30.57837.01
OpenVINO36.40.580933.08
TensorRT (FP32)40.10.57842.57
TensorRT (FP16)20.80.57961.55
TensorRT (INT8)12.70.55141.50
TF SavedModel90.80.578280.55
TF GraphDef36.30.578280.82
TF Lite36.30.5782615.29
MNN36.20.579054.12
NCNN36.30.580640.76
ExecuTorch36.20.578267.21
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch38.80.625011.4
TorchScript77.30.630410.16
ONNX76.90.630412.35
OpenVINO77.10.628477.81
TensorRT (FP32)80.70.63055.29
TensorRT (FP16)41.30.62942.42
TensorRT (INT8)23.70.61332.20
TF SavedModel192.40.6306184.66
TF GraphDef76.90.6306187.91
TF Lite76.90.63061845.09
MNN76.80.6298143.52
NCNN76.90.630895.86
ExecuTorch76.90.6306167.94
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch49.00.637014.0
TorchScript97.60.640913.77
ONNX97.00.641016.37
OpenVINO97.30.637798.86
TensorRT (FP32)101.00.63966.71
TensorRT (FP16)51.50.63583.26
TensorRT (INT8)29.70.61903.21
TF SavedModel242.70.6409246.93
TF GraphDef97.00.6409251.84
TF Lite97.00.64092383.45
MNN96.90.6361176.53
NCNN97.00.6373118.05
ExecuTorch97.00.6409211.46
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch109.30.699021.70
TorchScript218.10.690020.99
ONNX217.50.690024.07
OpenVINO217.80.6872187.33
TensorRT (FP32)220.00.690211.70
TensorRT (FP16)114.60.68815.10
TensorRT (INT8)59.90.68574.53
TF SavedModel543.90.6900489.91
TF GraphDef217.50.6900503.21
TF Lite217.50.69005164.31
MNN217.30.6905350.37
NCNN217.50.6901230.63
ExecuTorch217.40.6900419.9

Ultralytics 8.3.226 ile karşılaştırıldı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB)

Performans

FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch5.40.51019.40
TorchScript10.50.508311.00
ONNX10.20.507748.32
OpenVINO10.40.505827.24
TensorRT (FP32)12.10.50853.93
TensorRT (FP16)8.30.50632.55
TensorRT (INT8)5.40.47192.18
TF SavedModel25.90.507766.87
TF GraphDef10.30.507765.68
TF Lite10.30.5077272.92
MNN10.10.505936.33
NCNN10.20.503128.51
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch18.40.578312.10
TorchScript36.50.578211.01
ONNX36.30.5782107.54
OpenVINO36.40.581055.03
TensorRT (FP32)38.10.57816.52
TensorRT (FP16)21.40.58033.65
TensorRT (INT8)12.10.57352.81
TF SavedModel91.00.5782132.73
TF GraphDef36.40.5782134.96
TF Lite36.30.5782798.21
MNN36.20.577782.35
NCNN36.20.578456.07
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch38.80.626522.20
TorchScript77.30.630721.47
ONNX76.90.6307270.89
OpenVINO77.10.6284129.10
TensorRT (FP32)78.80.630612.53
TensorRT (FP16)41.90.63056.25
TensorRT (INT8)23.20.62914.69
TF SavedModel192.70.6307299.95
TF GraphDef77.10.6307310.58
TF Lite77.00.63072400.54
MNN76.80.6308213.56
NCNN76.80.6284141.18
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch49.00.636427.70
TorchScript97.60.639927.94
ONNX97.00.6409345.47
OpenVINO97.30.6378161.93
TensorRT (FP32)99.10.640616.11
TensorRT (FP16)52.60.63768.08
TensorRT (INT8)30.80.62086.12
TF SavedModel243.10.6409390.78
TF GraphDef97.20.6409398.76
TF Lite97.10.64093037.05
MNN96.90.6372265.46
NCNN96.90.6364179.68
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch109.30.700544.40
TorchScript218.10.689847.49
ONNX217.50.6900682.98
OpenVINO217.80.6876298.15
TensorRT (FP32)219.60.690428.50
TensorRT (FP16)112.20.688713.55
TensorRT (INT8)60.00.65749.40
TF SavedModel544.30.6900749.85
TF GraphDef217.70.6900753.86
TF Lite217.60.69006603.27
MNN217.30.6868519.77
NCNN217.30.6849298.58

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson Orin Nano Süper Geliştirici Kiti

Performans

FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch5.40.510113.70
TorchScript10.50.508213.69
ONNX10.20.508114.47
OpenVINO10.40.505856.66
TensorRT (FP32)12.00.50817.44
TensorRT (FP16)8.20.50614.53
TensorRT (INT8)5.40.48253.70
TF SavedModel25.90.5077116.23
TF GraphDef10.30.5077114.92
TF Lite10.30.5077340.75
MNN10.10.505976.26
NCNN10.20.503145.03
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch18.40.579020.90
TorchScript36.50.578121.22
ONNX36.30.578125.07
OpenVINO36.40.5810122.98
TensorRT (FP32)37.90.578313.02
TensorRT (FP16)21.80.57796.93
TensorRT (INT8)12.20.57355.08
TF SavedModel91.00.5782250.65
TF GraphDef36.40.5782252.69
TF Lite36.30.5782998.68
MNN36.20.5781188.01
NCNN36.20.5784101.37
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch38.80.626646.50
TorchScript77.30.630747.95
ONNX76.90.630753.06
OpenVINO77.10.6284301.63
TensorRT (FP32)78.80.630527.86
TensorRT (FP16)41.70.630913.50
TensorRT (INT8)23.20.62919.12
TF SavedModel192.70.6307622.24
TF GraphDef77.10.6307628.74
TF Lite77.00.63072997.93
MNN76.80.6299509.96
NCNN76.80.6284292.99
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch49.00.636456.50
TorchScript97.60.640962.51
ONNX97.00.639968.35
OpenVINO97.30.6378376.03
TensorRT (FP32)99.20.639635.59
TensorRT (FP16)52.10.636117.48
TensorRT (INT8)30.90.620711.87
TF SavedModel243.10.6409807.47
TF GraphDef97.20.6409822.88
TF Lite97.10.64093792.23
MNN96.90.6372631.16
NCNN96.90.6364350.46
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch109.30.700590.00
TorchScript218.10.6901113.40
ONNX217.50.6901122.94
OpenVINO217.80.6876713.1
TensorRT (FP32)219.50.690466.93
TensorRT (FP16)112.20.689232.58
TensorRT (INT8)61.50.661219.90
TF SavedModel544.30.69001605.4
TF GraphDef217.80.69002961.8
TF Lite217.60.69008234.86
MNN217.30.68931254.18
NCNN217.30.6849725.50

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson Orin NX 16GB

Performans

FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch5.40.510112.90
TorchScript10.50.508213.17
ONNX10.20.508115.43
OpenVINO10.40.505839.80
TensorRT (FP32)11.80.50817.94
TensorRT (FP16)8.10.50854.73
TensorRT (INT8)5.40.47863.90
TF SavedModel25.90.507788.48
TF GraphDef10.30.507786.67
TF Lite10.30.5077302.55
MNN10.10.505952.73
NCNN10.20.503132.04
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch18.40.579021.70
TorchScript36.50.578122.71
ONNX36.30.578126.49
OpenVINO36.40.581084.73
TensorRT (FP32)37.80.578313.77
TensorRT (FP16)21.20.57967.31
TensorRT (INT8)12.00.57355.33
TF SavedModel91.00.5782185.06
TF GraphDef36.40.5782186.45
TF Lite36.30.5782882.58
MNN36.20.5775126.36
NCNN36.20.578466.73
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch38.80.626645.00
TorchScript77.30.630751.87
ONNX76.90.630756.00
OpenVINO77.10.6284202.69
TensorRT (FP32)78.70.630530.38
TensorRT (FP16)41.80.630214.48
TensorRT (INT8)23.20.62919.74
TF SavedModel192.70.6307445.58
TF GraphDef77.10.6307460.94
TF Lite77.00.63072653.65
MNN76.80.6308339.38
NCNN76.80.6284187.64
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch49.00.636456.60
TorchScript97.60.640966.72
ONNX97.00.639971.92
OpenVINO97.30.6378254.17
TensorRT (FP32)99.20.640638.89
TensorRT (FP16)51.90.636318.59
TensorRT (INT8)30.90.620712.60
TF SavedModel243.10.6409575.98
TF GraphDef97.20.6409583.79
TF Lite97.10.64093353.41
MNN96.90.6367421.33
NCNN96.90.6364228.26
FormatDurumDisk üzerindeki boyut (MB)mAP50-95(B)Çıkarım süresi (ms/im)
PyTorch109.30.700598.50
TorchScript218.10.6901123.03
ONNX217.50.6901129.55
OpenVINO217.80.6876483.44
TensorRT (FP32)219.60.690475.92
TensorRT (FP16)112.10.688535.78
TensorRT (INT8)61.60.659221.60
TF SavedModel544.30.69001120.43
TF GraphDef217.70.69001172.35
TF Lite217.60.69007283.63
MNN217.30.6877840.16
NCNN217.30.6849474.41

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson donanımının farklı sürümlerinde çalışan Seeed Studio tarafından daha fazla kıyaslama çabasını keşfedin.

Sonuçlarımızı Tekrar Üretin

Yukarıdaki Ultralytics kıyaslamalarını tüm dışa aktarma biçimlerinde yeniden oluşturmak için bu kodu çalıştırın:

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml imgsz=640

Karşılaştırma sonuçlarının, bir sistemin kesin donanım ve yazılım yapılandırmasına ve ayrıca karşılaştırmaların çalıştırıldığı sırada sistemin mevcut iş yüküne bağlı olarak değişebileceğini unutmayın. En güvenilir sonuçlar için çok sayıda görüntü içeren bir veri kümesi kullanın, örneğin: data='coco.yaml' (5000 doğrulama görüntüsü).

NVIDIA Jetson kullanırken En İyi Uygulamalar

NVIDIA Jetson kullanırken, YOLO11 çalıştıran NVIDIA Jetson'da maksimum performansı sağlamak için izlenecek birkaç en iyi uygulama vardır.

  1. MAX Güç Modunu Etkinleştir

    Jetson'da MAX Güç Modunu Etkinleştirmek, tüm CPU, GPU çekirdeklerinin açık olduğundan emin olacaktır.

    sudo nvpmodel -m 0
    
  2. Jetson Saatlerini Etkinleştir

    Jetson Saatlerini Etkinleştirmek, tüm CPU, GPU çekirdeklerinin maksimum frekanslarında saatlenmesini sağlayacaktır.

    sudo jetson_clocks
    
  3. Jetson İstatistik Uygulamasını Yükle

    Sistem bileşenlerinin sıcaklıklarını izlemek ve CPU, GPU, RAM kullanımını görüntüleme, güç modlarını değiştirme, maksimum saatlere ayarlama, JetPack bilgilerini kontrol etme gibi diğer sistem ayrıntılarını kontrol etmek için jetson istatistikleri uygulamasını kullanabiliriz

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Jetson İstatistikleri

Sonraki Adımlar

NVIDIA Jetson'ınızda YOLO11'i başarıyla kurduğunuz için tebrikler! Daha fazla öğrenme ve destek için Ultralytics YOLO11 Belgeleri'ndeki kılavuzu ziyaret edin!

SSS

Ultralytics YOLO11'i NVIDIA Jetson cihazlarına nasıl dağıtırım?

Ultralytics YOLO11'i NVIDIA Jetson cihazlarına dağıtmak basit bir işlemdir. İlk olarak, Jetson cihazınızı NVIDIA JetPack SDK ile flashlayın. Ardından, hızlı kurulum için önceden oluşturulmuş bir Docker görüntüsü kullanın veya gerekli paketleri manuel olarak kurun. Her yaklaşım için ayrıntılı adımlar, Docker ile Hızlı Başlangıç ve Yerel Kurulum ile Başlangıç bölümlerinde bulunabilir.

NVIDIA Jetson cihazlarında YOLO11 modellerinden hangi performans kıyaslamalarını bekleyebilirim?

YOLO11 modelleri, çeşitli NVIDIA Jetson cihazlarında önemli performans iyileştirmeleri göstererek kıyaslanmıştır. Örneğin, TensorRT formatı en iyi çıkarım performansını sunar. Ayrıntılı Karşılaştırma Tabloları bölümündeki tablo, farklı model formatlarında mAP50-95 ve çıkarım süresi gibi performans metriklerine kapsamlı bir bakış sunar.

YOLO11'i NVIDIA Jetson'da dağıtmak için neden TensorRT kullanmalıyım?

TensorRT, optimum performansı nedeniyle YOLO11 modellerini NVIDIA Jetson'da dağıtmak için şiddetle tavsiye edilir. Jetson'ın GPU yeteneklerinden yararlanarak çıkarımı hızlandırır ve maksimum verimlilik ve hız sağlar. TensorRT'ye nasıl dönüştürüleceği ve çıkarımın nasıl çalıştırılacağı hakkında daha fazla bilgiyi NVIDIA Jetson'da TensorRT Kullanımı bölümünde bulabilirsiniz.

NVIDIA Jetson'a PyTorch ve Torchvision'ı nasıl kurabilirim?

NVIDIA Jetson'a PyTorch ve Torchvision'ı kurmak için, öncelikle pip aracılığıyla yüklenmiş olabilecek mevcut sürümleri kaldırın. Ardından, Jetson'ın ARM64 mimarisi için uyumlu PyTorch ve Torchvision sürümlerini manuel olarak kurun. Bu işlem için ayrıntılı talimatlar, PyTorch ve Torchvision'ı Kurulum bölümünde verilmiştir.

YOLO11 kullanırken NVIDIA Jetson'da performansı en üst düzeye çıkarmak için en iyi uygulamalar nelerdir?

YOLO11 ile NVIDIA Jetson'da performansı en üst düzeye çıkarmak için şu en iyi uygulamaları izleyin:

  1. Tüm CPU ve GPU çekirdeklerini kullanmak için MAX Güç Modunu etkinleştirin.
  2. Tüm çekirdekleri maksimum frekanslarında çalıştırmak için Jetson Saatlerini etkinleştirin.
  3. Sistem metriklerini izlemek için Jetson Stats uygulamasını kurun.

Komutlar ve ek ayrıntılar için, NVIDIA Jetson kullanırken En İyi Uygulamalar bölümüne bakın.



📅1 yıl önce oluşturuldu ✏️ 4 gün önce güncellendi
glenn-jocherlakshanthadRizwanMunawarBurhan-QpicsalexY-T-GLaughing-qjustincdavisMatthewNoyceUltralyticsAssistantAhelsamahy

Yorumlar