انتقل إلى المحتوى

دليل البدء السريع: NVIDIA جيتسون مع Ultralytics YOLOv8

يقدم هذا الدليل الشامل شرحًا تفصيليًا لنشر Ultralytics YOLOv8 على أجهزة NVIDIA Jetson. بالإضافة إلى ذلك، فإنه يعرض معايير الأداء لتوضيح قدرات YOLOv8 على هذه الأجهزة الصغيرة والقوية.



شاهد: كيفية الإعداد NVIDIA جيتسون مع Ultralytics YOLOv8

NVIDIA نظام جيتسون البيئي

ملاحظه

لقد تم اختبار هذا الدليل مع كل من Seeed Studio reComputer J4012 الذي يستند إلى NVIDIA Jetson Orin NX 16GB الذي يعمل بأحدث إصدار ثابت من JetPack JP6.0، وإصدار JetPack JP5.1.3 وإصدار JP5.1.3 وSeeed Studio reComputer J1020 v2 الذي يستند إلى NVIDIA Jetson Nano 4GB الذي يعمل بإصدار JetPack JP4.6.1. من المتوقع أن يعمل عبر جميع مجموعة أجهزة NVIDIA Jetson بما في ذلك الأحدث والقديم.

ما هو NVIDIA جيتسون؟

NVIDIA Jetson is a series of embedded computing boards designed to bring accelerated AI (artificial intelligence) computing to edge devices. These compact and powerful devices are built around NVIDIA's GPU architecture and are capable of running complex AI algorithms and deep learning models directly on the device, without needing to rely on cloud computing resources. Jetson boards are often used in robotics, autonomous vehicles, industrial automation, and other applications where AI inference needs to be performed locally with low latency and high efficiency. Additionally, these boards are based on the ARM64 architecture and runs on lower power compared to traditional GPU computing devices.

NVIDIA مقارنة بين سلسلة جيتسون

Jetson Orin هو أحدث تكرار لعائلة Jetson NVIDIA Jetson القائمة على بنية NVIDIA Ampere التي توفر أداء ذكاءً محسّنًا بشكل كبير مقارنةً بالأجيال السابقة. يقارن الجدول أدناه بعض أجهزة Jetson في النظام البيئي.

جيتسون AGX أورين 64 جيجابايتجيتسون أورين NX 16 جيجابايتجيتسون أورين نانو 8 جيجاجيتسون AGX كزافييهجيتسون كزافييه NXجيتسون نانو
أداء الذكاء الاصطناعي275 قمم100 قمم40 قمة32 قمم21 قمم472 جلوب
GPU2048 نواة NVIDIA بنية أمبير GPU مع 64 Tensor نواة1024 نواة NVIDIA أمبير GPU ببنية Tensor نواة1024 نواة NVIDIA أمبير GPU ببنية Tensor نواة512 نواة NVIDIA نواة Volta Architecture GPU مع 64 Tensor نواة384 نواة NVIDIA Volta™ Architecture GPU بـ 48 Tensor Cores128-نواة NVIDIA ماكسويل™م معمارية ماكسويل™ 128-نواة GPU
GPU الحد الأقصى للتردد1.3 جيجاهرتز918 ميغاهيرتز625 ميغاهيرتز1377 ميجا هرتز1100 ميغاهيرتز921 ميجا هرتز
CPU12-نواة NVIDIA Arm® Cortex A78AE v8.2 64 بت CPU 3 ميجابايت L2 + 6 ميجابايت L3ثماني النواة NVIDIA Arm® Cortex A78AE 8-core A78AE v8.2 64-bit CPU 2 ميجابايت L2 + 4 ميجابايت L3Arm® Cortex® Cortex®-A78AE سداسي النواة ®A78AE v8.2 64 بت CPU 1.5 ميجابايت L2 + 4 ميجابايت L3ثماني النواة NVIDIA Carmel® Armel® Arm8.2 ®8.2 64 بت CPU 8 ميجابايت L2 + 4 ميجابايت L3سداسي النواة NVIDIA Carmel® Armel® Armv8.2 64 بت CPU 6 ميجابايت L2 + 4 ميجابايت L3معالج رباعي النواة® Cortex-A57® MPCore
CPU الحد الأقصى للتردد2.2 جيجاهرتز2.0 جيجاهرتز1.5 جيجاهرتز2.2 جيجاهرتز1.9 جيجاهرتز1.43 جيجا هرتز
ذاكرة64 جيجابايت 256 بت LPDDR5 204.8 جيجابايت / ثانية16 جيجابايت 128 بت LPDDR5 102.4 جيجابايت / ثانية8 جيجا بايت 128 بت LPDDR5 68 جيجا بايت / ثانية32 جيجابايت 256 بت LPDDR4x 136.5 جيجابايت / ثانية8 جيجا بايت 128 بت LPDDR4x 59.7 جيجا بايت / ثانية4 جيجابايت 64 بت LPDDR4 25.6 جيجابايت / ثانية "

للاطلاع على جدول مقارنة أكثر تفصيلاً، يُرجى زيارة قسم المواصفات الفنية في صفحة NVIDIA Jetson الرسمية.

ما هو NVIDIA JetPack؟

NVIDIA JetPack SDK powering the Jetson modules is the most comprehensive solution and provides full development environment for building end-to-end accelerated AI applications and shortens time to market. JetPack includes Jetson Linux with bootloader, Linux kernel, Ubuntu desktop environment, and a complete set of libraries for acceleration of GPU computing, multimedia, graphics, and computer vision. It also includes samples, documentation, and developer tools for both host computer and developer kit, and supports higher level SDKs such as DeepStream for streaming video analytics, Isaac for robotics, and Riva for conversational AI.

Flash JetPack إلى NVIDIA Jetson

تتمثل الخطوة الأولى بعد الحصول على جهاز NVIDIA Jetson في وميض NVIDIA JetPack على الجهاز. هناك عدة طرق مختلفة لوميض NVIDIA أجهزة جيتسون.

  1. إذا كنت تمتلك مجموعة أدوات تطوير رسمية NVIDIA مثل Jetson Orin Nano Developer Kit، يمكنك تنزيل صورة وإعداد بطاقة SD مع JetPack لتشغيل الجهاز.
  2. إذا كنت تمتلك أي مجموعة أدوات تطوير أخرى NVIDIA ، يمكنك فلاش JetPack على الجهاز باستخدام SDK Manager.
  3. إذا كنت تمتلك جهاز Seeed Studio reComputer J4012، فيمكنك فلاش JetPack على قرص SSD المضمّن، وإذا كنت تمتلك جهاز Seeed Studio reComputer J1020 v2، فيمكنك فلاش JetPack على قرص eMMC/ SSD.
  4. إذا كنت تمتلك أي جهاز آخر تابع لجهة خارجية يعمل بوحدة NVIDIA Jetson، فمن المستحسن اتباع وميض سطر الأوامر.

ملاحظه

بالنسبة للطريقتين 3 و4 أعلاه، بعد وميض النظام وتشغيل الجهاز، يُرجى إدخال "sudo apt update & sudo apt install nvidia-jetpack -y" على طرفية الجهاز لتثبيت جميع مكونات JetPack المتبقية المطلوبة.

دعم JetPack JetPack القائم على جهاز Jetson

يوضح الجدول أدناه NVIDIA إصدارات JetPack التي تدعمها أجهزة NVIDIA Jetson المختلفة.

JetPack 4جيت باك 5جيت باك 6
جيتسون نانو
جيتسون TX2
جيتسون كزافييه NX
جيتسون AGX كزافييه
جيتسون إيه جي إكس أورين
جيتسون أورين NX
جيتسون أورين نانو

بداية سريعة مع Docker

إن أسرع طريقة لبدء استخدام Ultralytics YOLOv8 على NVIDIA جيتسون هي التشغيل باستخدام صور docker المدمجة مسبقاً لجهاز جيتسون. ارجع إلى الجدول أعلاه واختر إصدار JetPack وفقًا لجهاز Jetson الذي تملكه.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

بعد الانتهاء من ذلك، انتقل إلى قسم استخدام TensorRT على NVIDIA جيتسون.

ابدأ بالتثبيت الأصلي

للتثبيت الأصلي بدون Docker، يُرجى الرجوع إلى الخطوات أدناه.

التشغيل على JetPack 6.x

أقام Ultralytics حزمة

Here we will install Ultralytics package on the Jetson with optional dependencies so that we can export the PyTorch models to other different formats. We will mainly focus on NVIDIA TensorRT exports because TensorRT will make sure we can get the maximum performance out of the Jetson devices.

  1. تحديث قائمة الحزم وتثبيت النقطة والترقية إلى الأحدث

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. أقام ultralytics حزمة النقطة مع التبعيات الاختيارية

    pip install ultralytics[export]
    
  3. أعد تشغيل الجهاز

    sudo reboot
    

أقام PyTorch و Torchvision

ما سبق ultralytics سيتم تثبيت التثبيت Torch و Torchvision. ومع ذلك ، فإن حزم 2 المثبتة عبر النقطة غير متوافقة للتشغيل على منصة Jetson التي تعتمد على بنية ARM64. لذلك ، نحتاج إلى تثبيت يدويا مسبق الصنع PyTorch عجلة نقطة وتجميع / تثبيت Torchvision من المصدر.

أقام torch 2.3.0 و torchvision 0.18 وفقًا ل JP6.0

sudo apt-get install libopenmpi-dev libopenblas-base libomp-dev -y
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.3.0-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.18.0a0+6043bc2-cp310-cp310-linux_aarch64.whl

قم بزيارة صفحةPyTorch لصفحة Jetson للوصول إلى جميع الإصدارات المختلفة من PyTorch لإصدارات JetPack المختلفة. للاطلاع على قائمة أكثر تفصيلاً على PyTorch ، توافق Torchvision، قم بزيارة صفحة التوافقPyTorch وتوافق Torchvision.

أقام onnxruntime-gpu

ال أونكسر الزمن-gpu الحزمة المستضافة في PyPI لا تحتوي على aarch64 ثنائيات لـ Jetson. لذلك نحن بحاجة إلى تثبيت هذه الحزمة يدوياً. هذه الحزمة مطلوبة لبعض الصادرات.

كل شيء مختلف onnxruntime-gpu يتم سرد الحزم المقابلة لإصدارات JetPack و Python المختلفة هنا. ومع ذلك، سنقوم هنا بتنزيل وتثبيت onnxruntime-gpu 1.18.0 مع Python3.10 الدعم.

wget https://nvidia.box.com/shared/static/48dtuob7meiw6ebgfsfqakc9vse62sg4.whl -O onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
pip install onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl

ملاحظه

onnxruntime-gpu سيعيد تلقائيًا إصدار numpy إلى الأحدث. لذلك نحن بحاجة إلى إعادة تثبيت numpy إلى 1.23.5 لإصلاح مشكلة عن طريق التنفيذ

pip install numpy==1.23.5

تشغيل على JetPack 5.x

أقام Ultralytics حزمة

سنقوم هنا بتثبيت الحزمة Ultralytics على جيتسون مع التبعيات الاختيارية حتى نتمكن من تصدير نماذج PyTorch إلى تنسيقات مختلفة أخرى. سنركز بشكل أساسي على NVIDIA TensorRT التصدير لأن TensorRT سيضمن لنا الحصول على أقصى أداء من أجهزة جيتسون.

  1. تحديث قائمة الحزم وتثبيت النقطة والترقية إلى الأحدث

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. أقام ultralytics حزمة النقطة مع التبعيات الاختيارية

    pip install ultralytics[export]
    
  3. أعد تشغيل الجهاز

    sudo reboot
    

أقام PyTorch و Torchvision

ما سبق ultralytics سيتم تثبيت التثبيت Torch و Torchvision. ومع ذلك ، فإن حزم 2 المثبتة عبر النقطة غير متوافقة للتشغيل على منصة Jetson التي تعتمد على بنية ARM64. لذلك ، نحتاج إلى تثبيت يدويا مسبق الصنع PyTorch عجلة نقطة وتجميع / تثبيت Torchvision من المصدر.

  1. إلغاء التثبيت مثبت حاليا PyTorch و Torchvision

    pip uninstall torch torchvision
    
  2. أقام PyTorch 2.1.0 وفقا ل JP5.1.3

    sudo apt-get install -y libopenblas-base libopenmpi-dev
    wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
    
  3. تثبيت Torchvision v0.16.2 وفقا ل PyTorch الإصدار 2.1.0

    sudo apt install -y libjpeg-dev zlib1g-dev
    git clone https://github.com/pytorch/vision torchvision
    cd torchvision
    git checkout v0.16.2
    python3 setup.py install --user
    

قم بزيارة صفحةPyTorch لصفحة Jetson للوصول إلى جميع الإصدارات المختلفة من PyTorch لإصدارات JetPack المختلفة. للاطلاع على قائمة أكثر تفصيلاً على PyTorch ، توافق Torchvision، قم بزيارة صفحة التوافقPyTorch وتوافق Torchvision.

أقام onnxruntime-gpu

ال أونكسر الزمن-gpu الحزمة المستضافة في PyPI لا تحتوي على aarch64 ثنائيات لـ Jetson. لذلك نحن بحاجة إلى تثبيت هذه الحزمة يدوياً. هذه الحزمة مطلوبة لبعض الصادرات.

كل شيء مختلف onnxruntime-gpu يتم سرد الحزم المقابلة لإصدارات JetPack و Python المختلفة هنا. ومع ذلك، سنقوم هنا بتنزيل وتثبيت onnxruntime-gpu 1.17.0 مع Python3.8 الدعم.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

ملاحظه

onnxruntime-gpu سيعيد تلقائيًا إصدار numpy إلى الأحدث. لذلك نحن بحاجة إلى إعادة تثبيت numpy إلى 1.23.5 لإصلاح مشكلة عن طريق التنفيذ

pip install numpy==1.23.5

استخدم TensorRT على NVIDIA Jetson

من بين جميع تنسيقات تصدير النماذج التي يدعمها Ultralytics ، يقدم TensorRT أفضل أداء استدلالي عند العمل مع أجهزة NVIDIA Jetson ونوصي باستخدام TensorRT مع Jetson. لدينا أيضًا مستند مفصل على TensorRT هنا.

تحويل النموذج إلى TensorRT وتشغيل الاستدلال

ال YOLOv8n نموذج في PyTorch يتم تحويل التنسيق إلى TensorRT لتشغيل الاستدلال مع النموذج المصدر.

مثل

from ultralytics import YOLO

# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolov8n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolov8n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLOv8n PyTorch model to TensorRT format
yolo export model=yolov8n.pt format=engine  # creates 'yolov8n.engine'

# Run inference with the exported model
yolo predict model=yolov8n.engine source='https://ultralytics.com/images/bus.jpg'

Use NVIDIA Deep Learning Accelerator (DLA)

NVIDIA Deep Learning Accelerator (DLA) is a specialized hardware component built into NVIDIA Jetson devices that optimizes deep learning inference for energy efficiency and performance. By offloading tasks from the GPU (freeing it up for more intensive processes), DLA enables models to run with lower power consumption while maintaining high throughput, ideal for embedded systems and real-time AI applications.

The following Jetson devices are equipped with DLA hardware:

  • جيتسون أورين NX 16 جيجابايت
  • Jetson AGX Orin Series
  • Jetson AGX Xavier Series
  • Jetson Xavier NX Series

مثل

from ultralytics import YOLO

# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolov8n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLOv8n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolov8n.pt format=engine device="dla:0" half=True  # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolov8n.engine source='https://ultralytics.com/images/bus.jpg'

ملاحظه

قم بزيارة صفحة التصدير للوصول إلى الوسائط الإضافية عند تصدير النماذج إلى تنسيقات نماذج مختلفة

NVIDIA معايير جيتسون أورين YOLOv8 المعيارية

YOLOv8 benchmarks were run by the Ultralytics team on 10 different model formats measuring speed and accuracy: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, PaddlePaddle, NCNN. Benchmarks were run on Seeed Studio reComputer J4012 powered by Jetson Orin NX 16GB device at FP32 precision with default input image size of 640.

رسم بياني للمقارنة

على الرغم من أن جميع صادرات النماذج تعمل مع NVIDIA جيتسون إلا أننا أدرجنا فقط PyTorch و TorchScript و TensorRT في مخطط المقارنة أدناه لأنها تستخدم GPU على جيتسون وهي مضمونة للحصول على أفضل النتائج. جميع الصادرات الأخرى تستخدم فقط CPU والأداء ليس جيدًا مثل الثلاثة المذكورة أعلاه. يمكنك العثور على معايير لجميع الصادرات في القسم الذي يلي هذا المخطط.

NVIDIA نظام جيتسون البيئي

جدول المقارنة التفصيلي

يمثل الجدول أدناه النتائج المعيارية لخمسة نماذج مختلفة (YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x) عبر عشرة تنسيقات مختلفة (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF لايت PaddlePaddle, NCNN) ، مما يعطينا الحالة والحجم ومقياس mAP50-95 (B) ووقت الاستدلال لكل مجموعة.

اداء

تنسيقحالةالحجم على القرص (ميغابايت)mAP50-95 (ب)وقت الاستدلال (مللي ثانية / im)
PyTorch6.20.638114.3
TorchScript12.40.611713.3
ONNX12.20.609270.6
OpenVINO12.30.6092104.2
TensorRT (FP32)16.10.60918.01
TensorRT (FP16)9.20.60934.55
TensorRT (INT8)5.90.27594.09
TF SavedModel30.60.6092141.74
TF GraphDef12.30.6092199.93
TF لايت12.30.6092349.18
PaddlePaddle24.40.6030555
NCNN12.20.609232
تنسيقحالةالحجم على القرص (ميغابايت)mAP50-95 (ب)وقت الاستدلال (مللي ثانية / im)
PyTorch21.50.696718
TorchScript43.00.713623.81
ONNX42.80.7136185.55
OpenVINO42.90.7136243.97
TensorRT (FP32)46.40.713614.01
TensorRT (FP16)24.20.7227.16
TensorRT (INT8)13.70.42335.49
TF SavedModel1070.7136260.03
TF GraphDef42.80.7136423.4
TF لايت42.80.71361046.64
PaddlePaddle85.50.71401464
NCNN42.70.720063
تنسيقحالةالحجم على القرص (ميغابايت)mAP50-95 (ب)وقت الاستدلال (مللي ثانية / im)
PyTorch49.70.737036.4
TorchScript99.20.728553.58
ONNX990.7280452.09
OpenVINO99.10.7280544.36
TensorRT (FP32)102.40.728531.51
TensorRT (FP16)52.60.732414.88
TensorRT (INT8)28.60.328310.89
TF SavedModel247.50.7280543.65
TF GraphDef990.7280906.63
TF لايت990.72802758.08
PaddlePaddle197.90.72803678
NCNN98.90.7260135
تنسيقحالةالحجم على القرص (ميغابايت)mAP50-95 (ب)وقت الاستدلال (مللي ثانية / im)
PyTorch83.70.776861.3
TorchScript167.20.755487.9
ONNX166.80.7551852.29
OpenVINO1670.75511012.6
TensorRT (FP32)170.50.755449.79
TensorRT (FP16)86.10.753522.89
TensorRT (INT8)46.40.404814.61
TF SavedModel417.20.7551990.45
TF GraphDef166.90.75511649.86
TF لايت166.90.75515652.37
PaddlePaddle333.60.75517114.67
NCNN166.80.7685231.9
تنسيقحالةالحجم على القرص (ميغابايت)mAP50-95 (ب)وقت الاستدلال (مللي ثانية / im)
PyTorch130.50.775993
TorchScript260.70.7472135.1
ONNX260.40.74791296.13
OpenVINO260.60.74791502.15
TensorRT (FP32)264.00.746980.01
TensorRT (FP16)133.30.751340.76
TensorRT (INT8)70.20.427722.08
TF SavedModel651.10.74791451.76
TF GraphDef260.50.74794029.36
TF لايت260.40.74798772.86
PaddlePaddle520.80.747910619.53
NCNN260.40.7646376.38

استكشف المزيد من جهود القياس المعياري من قبل Seeed Studio الذي يعمل على إصدارات مختلفة من أجهزة NVIDIA Jetson.

إعادة إنتاج نتائجنا

لإعادة إنتاج ما سبق Ultralytics تقوم المعايير في جميع تنسيقات التصدير بتشغيل هذا الرمز:

مثل

from ultralytics import YOLO

# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")

# Benchmark YOLOv8n speed and accuracy on the COCO8 dataset for all all export formats
results = model.benchmarks(data="coco8.yaml", imgsz=640)
# Benchmark YOLOv8n speed and accuracy on the COCO8 dataset for all all export formats
yolo benchmark model=yolov8n.pt data=coco8.yaml imgsz=640

لاحظ أن نتائج القياس قد تختلف بناء على التكوين الدقيق للأجهزة والبرامج للنظام ، بالإضافة إلى عبء العمل الحالي للنظام في وقت تشغيل المعايير. للحصول على النتائج الأكثر موثوقية ، استخدم مجموعة بيانات تحتوي على عدد كبير من الصور ، أي data='coco8.yaml' (4 val images), ordata='coco.yaml'' (5000 صورة فال).

أفضل الممارسات عند استخدام NVIDIA Jetson

عند استخدام NVIDIA Jetson، هناك بعض أفضل الممارسات التي يجب اتباعها من أجل تمكين أقصى أداء على NVIDIA Jetson الذي يعمل YOLOv8.

  1. تمكين وضع الطاقة MAX

    سيؤدي تمكين وضع الطاقة القصوى على Jetson إلى التأكد من تشغيل جميع النوى CPU ، GPU .

    sudo nvpmodel -m 0
    
  2. تمكين ساعات جيتسون

    سيؤدي تمكين ساعات Jetson Clocks إلى التأكد من أن جميع النوى CPU ، GPU مسجلة على أقصى تردد لها.

    sudo jetson_clocks
    
  3. تثبيت تطبيق إحصائيات جيتسون

    يمكننا استخدام تطبيق جيتسون ستاتس لمراقبة درجات حرارة مكونات النظام والتحقق من تفاصيل النظام الأخرى مثل عرض CPU ، GPU ، استخدام ذاكرة الوصول العشوائي، تغيير أوضاع الطاقة، ضبط الساعات على الحد الأقصى، التحقق من معلومات JetPack

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

احصائيات جيتسون

الخطوات التالية

تهانينا على الإعداد الناجح YOLOv8 على جهازك NVIDIA جيتسون! لمزيد من التعلم والدعم، قم بزيارة المزيد من الدليل على Ultralytics YOLOv8 Docs!

الأسئلة المتداولة

كيف يمكنني نشر Ultralytics YOLOv8 على أجهزة NVIDIA جيتسون؟

يعد نشر Ultralytics YOLOv8 على أجهزة NVIDIA Jetson عملية مباشرة. أولاً، قم أولاً بوميض جهاز Jetson الخاص بك باستخدام NVIDIA JetPack SDK. بعد ذلك، إما أن تستخدم صورة Docker مبنية مسبقًا لإعداد سريع أو تثبيت الحزم المطلوبة يدويًا. يمكن الاطلاع على الخطوات التفصيلية لكل طريقة في قسمي البدء السريع باستخدام Docker والبدء بالتثبيت الأصلي.

ما هي معايير الأداء التي يمكنني توقعها من طرازات YOLOv8 على أجهزة NVIDIA Jetson؟

YOLOv8 تم قياس أداء النماذج على مختلف أجهزة NVIDIA Jetson التي تُظهر تحسينات كبيرة في الأداء. على سبيل المثال، يقدم تنسيق TensorRT أفضل أداء في الاستدلال. يوفر الجدول الموجود في قسم جدول المقارنة التفصيلي عرضًا شاملاً لمقاييس الأداء مثل mAP50-95 وزمن الاستدلال عبر تنسيقات النماذج المختلفة.

لماذا يجب أن أستخدم TensorRT لنشر YOLOv8 على NVIDIA جيتسون؟

TensorRT يوصى به بشدة لنشر نماذج YOLOv8 على NVIDIA Jetson نظرًا لأدائه الأمثل. فهو يسرّع الاستدلال من خلال الاستفادة من قدرات جيتسون GPU ، مما يضمن أقصى قدر من الكفاءة والسرعة. تعرف على المزيد حول كيفية التحويل إلى TensorRT وتشغيل الاستدلال في قسم استخدام TensorRT على NVIDIA جيتسون.

كيف يمكنني تثبيت PyTorch و Torchvision على NVIDIA Jetson؟

لتثبيت PyTorch و Torchvision على NVIDIA Jetson، قم أولاً بإلغاء تثبيت أي إصدارات موجودة قد تكون مثبتة عبر pip. ثم قم يدويًا بتثبيت الإصدارين المتوافقين PyTorch و Torchvision يدويًا لبنية ARM64 الخاصة ب Jetson. يتم توفير الإرشادات التفصيلية لهذه العملية في قسم تثبيت PyTorch و Tor chvision.

ما هي أفضل الممارسات لتحقيق أقصى قدر من الأداء على NVIDIA Jetson عند استخدام YOLOv8 ؟

لتحقيق أقصى قدر من الأداء على NVIDIA Jetson مع YOLOv8 ، اتبع أفضل الممارسات التالية:

  1. تمكين وضع الطاقة القصوى للاستفادة من جميع النوى CPU و GPU .
  2. تمكين ساعات Jetson Clocks لتشغيل جميع النوى بأقصى تردد لها.
  3. قم بتثبيت تطبيق Jetson Stats لمراقبة مقاييس النظام.

للحصول على الأوامر والتفاصيل الإضافية، راجع قسم أفضل الممارسات عند استخدام NVIDIA جيتسون.

📅 Created 6 months ago ✏️ Updated 0 days ago

التعليقات