دليل البدء السريع: NVIDIA جيتسون مع Ultralytics YOLOv8
يقدم هذا الدليل الشامل شرحًا تفصيليًا لنشر Ultralytics YOLOv8 على أجهزة NVIDIA Jetson. بالإضافة إلى ذلك، فإنه يعرض معايير الأداء لتوضيح قدرات YOLOv8 على هذه الأجهزة الصغيرة والقوية.
شاهد: كيفية الإعداد NVIDIA جيتسون مع Ultralytics YOLOv8
ملاحظه
لقد تم اختبار هذا الدليل مع كل من Seeed Studio reComputer J4012 الذي يعتمد على NVIDIA Jetson Orin NX 16GB الذي يعمل بأحدث إصدار مستقر من JetPack JP5.1.3 وSeeed Studio reComputer J1020 v2 الذي يعتمد على NVIDIA Jetson Nano 4GB الذي يعمل بإصدار JetPack JP4.6.1. من المتوقع أن يعمل عبر جميع تشكيلة أجهزة NVIDIA Jetson بما في ذلك الأحدث والأقدم.
ما هو NVIDIA جيتسون؟
NVIDIA Jetson عبارة عن سلسلة من لوحات الحوسبة المدمجة المصممة لتوفير حوسبة الذكاء الاصطناعي (الذكاء الاصطناعي) المتسارعة للأجهزة المتطورة. صُممت هذه الأجهزة المدمجة والقوية حول بنية GPU الخاصة ب NVIDIA وهي قادرة على تشغيل خوارزميات الذكاء الاصطناعي المعقدة ونماذج التعلم العميق مباشرةً على الجهاز، دون الحاجة إلى الاعتماد على موارد الحوسبة السحابية. غالبًا ما تُستخدم لوحات Jetson في مجال الروبوتات والمركبات ذاتية القيادة والأتمتة الصناعية والتطبيقات الأخرى التي تحتاج إلى إجراء استدلال الذكاء الاصطناعي محليًا بزمن انتقال منخفض وكفاءة عالية. بالإضافة إلى ذلك، تعتمد هذه اللوحات على بنية ARM64 وتعمل بطاقة أقل مقارنةً بأجهزة الحوسبة التقليدية GPU .
NVIDIA مقارنة بين سلسلة جيتسون
Jetson Orin هو أحدث تكرار لعائلة Jetson NVIDIA Jetson القائمة على بنية NVIDIA Ampere التي توفر أداء ذكاءً محسّنًا بشكل كبير مقارنةً بالأجيال السابقة. يقارن الجدول أدناه بعض أجهزة Jetson في النظام البيئي.
جيتسون AGX أورين 64 جيجابايت | جيتسون أورين NX 16 جيجابايت | جيتسون أورين نانو 8 جيجا | جيتسون AGX كزافييه | جيتسون كزافييه NX | جيتسون نانو | |
---|---|---|---|---|---|---|
أداء الذكاء الاصطناعي | 275 قمم | 100 قمم | 40 قمة | 32 قمم | 21 قمم | 472 جلوب |
GPU | 2048 نواة NVIDIA بنية أمبير GPU مع 64 Tensor نواة | 1024 نواة NVIDIA أمبير GPU ببنية Tensor نواة | 1024 نواة NVIDIA أمبير GPU ببنية Tensor نواة | 512 نواة NVIDIA نواة Volta Architecture GPU مع 64 Tensor نواة | 384 نواة NVIDIA Volta™ Architecture GPU بـ 48 Tensor Cores | 128-نواة NVIDIA ماكسويل™م معمارية ماكسويل™ 128-نواة GPU |
GPU الحد الأقصى للتردد | 1.3 جيجاهرتز | 918 ميغاهيرتز | 625 ميغاهيرتز | 1377 ميجا هرتز | 1100 ميغاهيرتز | 921 ميجا هرتز |
CPU | 12-نواة NVIDIA Arm® Cortex A78AE v8.2 64 بت CPU 3 ميجابايت L2 + 6 ميجابايت L3 | ثماني النواة NVIDIA Arm® Cortex A78AE 8-core A78AE v8.2 64-bit CPU 2 ميجابايت L2 + 4 ميجابايت L3 | Arm® Cortex® Cortex®-A78AE سداسي النواة ®A78AE v8.2 64 بت CPU 1.5 ميجابايت L2 + 4 ميجابايت L3 | ثماني النواة NVIDIA Carmel® Armel® Arm8.2 ®8.2 64 بت CPU 8 ميجابايت L2 + 4 ميجابايت L3 | سداسي النواة NVIDIA Carmel® Armel® Armv8.2 64 بت CPU 6 ميجابايت L2 + 4 ميجابايت L3 | معالج رباعي النواة® Cortex-A57® MPCore |
CPU الحد الأقصى للتردد | 2.2 جيجاهرتز | 2.0 جيجاهرتز | 1.5 جيجاهرتز | 2.2 جيجاهرتز | 1.9 جيجاهرتز | 1.43 جيجا هرتز |
ذاكرة | 64 جيجابايت 256 بت LPDDR5 204.8 جيجابايت / ثانية | 16 جيجابايت 128 بت LPDDR5 102.4 جيجابايت / ثانية | 8 جيجا بايت 128 بت LPDDR5 68 جيجا بايت / ثانية | 32 جيجابايت 256 بت LPDDR4x 136.5 جيجابايت / ثانية | 8 جيجا بايت 128 بت LPDDR4x 59.7 جيجا بايت / ثانية | 4 جيجابايت 64 بت LPDDR4 25.6 جيجابايت / ثانية " |
للاطلاع على جدول مقارنة أكثر تفصيلاً، يُرجى زيارة قسم المواصفات الفنية في صفحة NVIDIA Jetson الرسمية.
ما هو NVIDIA JetPack؟
NVIDIA إن JetPack SDK الذي يعمل على تشغيل وحدات Jetson هو الحل الأكثر شمولاً ويوفر بيئة تطوير كاملة لبناء تطبيقات ذكاء اصطناعي مسرّعة من البداية إلى النهاية ويقلل من الوقت اللازم للتسويق. يتضمن JetPack JetPack Jetson Linux مع محمل الإقلاع، ونواة Linux، وبيئة سطح مكتب Ubuntu، ومجموعة كاملة من المكتبات لتسريع الحوسبة GPU ، والوسائط المتعددة، والرسومات، والرؤية الحاسوبية. كما يتضمن أيضًا عينات ووثائق وأدوات مطورين لكل من الكمبيوتر المضيف ومجموعة أدوات المطورين، ويدعم حزم SDK ذات المستوى الأعلى مثل DeepStream لبث تحليلات الفيديو، وISAac للروبوتات، وRiva للذكاء الاصطناعي التخاطبي.
Flash JetPack إلى NVIDIA Jetson
تتمثل الخطوة الأولى بعد الحصول على جهاز NVIDIA Jetson في وميض NVIDIA JetPack على الجهاز. هناك عدة طرق مختلفة لوميض NVIDIA أجهزة جيتسون.
- إذا كنت تمتلك مجموعة أدوات تطوير رسمية NVIDIA مثل Jetson Orin Nano Developer Kit، يمكنك تنزيل صورة وإعداد بطاقة SD مع JetPack لتشغيل الجهاز.
- إذا كنت تمتلك أي مجموعة أدوات تطوير أخرى NVIDIA ، يمكنك فلاش JetPack على الجهاز باستخدام SDK Manager.
- إذا كنت تمتلك جهاز Seeed Studio reComputer J4012، فيمكنك فلاش JetPack على قرص SSD المضمّن، وإذا كنت تمتلك جهاز Seeed Studio reComputer J1020 v2، فيمكنك فلاش JetPack على قرص eMMC/ SSD.
- إذا كنت تمتلك أي جهاز آخر تابع لجهة خارجية يعمل بوحدة NVIDIA Jetson، فمن المستحسن اتباع وميض سطر الأوامر.
ملاحظه
بالنسبة للطريقتين 3 و4 أعلاه، بعد وميض النظام وتشغيل الجهاز، يُرجى إدخال "sudo apt update & sudo apt install nvidia-jetpack -y" على طرفية الجهاز لتثبيت جميع مكونات JetPack المتبقية المطلوبة.
تشغيل على JetPack 5.x
إذا كنت تمتلك جهاز Jetson Xavier NX أو AGX Xavier أو AGX Xavier أو AGX Orin أو Orin Nano أو Orin NX الذي يدعم JetPack 5.x، يمكنك متابعة اتباع هذا الدليل. ومع ذلك، إذا كان لديك جهاز قديم مثل Jetson Nano، يُرجى التخطي إلى التشغيل على JetPack 4.x.
الإعداد Ultralytics
هناك طريقتان لإعداد حزمة Ultralytics على NVIDIA Jetson لبناء مشروعك القادم للرؤية الحاسوبية. يمكنك استخدام أي منهما.
ابدأ مع عامل ميناء
أسرع طريقة لبدء استخدام Ultralytics YOLOv8 على NVIDIA Jetson هي التشغيل باستخدام صورة docker المبنية مسبقًا لـ Jetson.
قم بتنفيذ الأمر أدناه لسحب حاوية Docker وتشغيلها على Jetson. يستند هذا الأمر إلى صورة L4t-pytorch docker التي تحتوي على PyTorch و Torchvision في بيئة Python3.
t=ultralytics/ultralytics:latest-jetson-jetpack5 && sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
بعد الانتهاء من ذلك، انتقل إلى قسم استخدام TensorRT على NVIDIA جيتسون.
ابدأ بدون عامل ميناء
أقام Ultralytics حزمة
سنقوم هنا بتثبيت الحزمة Ultralytics على جيتسون مع التبعيات الاختيارية حتى نتمكن من تصدير نماذج PyTorch إلى تنسيقات مختلفة أخرى. سنركز بشكل أساسي على NVIDIA TensorRT التصدير لأن TensorRT سيضمن لنا الحصول على أقصى أداء من أجهزة جيتسون.
-
تحديث قائمة الحزم وتثبيت النقطة والترقية إلى الأحدث
-
أقام
ultralytics
حزمة النقطة مع التبعيات الاختيارية -
أعد تشغيل الجهاز
أقام PyTorch و Torchvision
ما سبق ultralytics سيتم تثبيت التثبيت Torch و Torchvision. ومع ذلك ، فإن حزم 2 المثبتة عبر النقطة غير متوافقة للتشغيل على منصة Jetson التي تعتمد على بنية ARM64. لذلك ، نحتاج إلى تثبيت يدويا مسبق الصنع PyTorch عجلة نقطة وتجميع / تثبيت Torchvision من المصدر.
-
إلغاء التثبيت مثبت حاليا PyTorch و Torchvision
-
أقام PyTorch 2.1.0 وفقا ل JP5.1.3
sudo apt-get install -y libopenblas-base libopenmpi-dev wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
-
تثبيت Torchvision v0.16.2 وفقا ل PyTorch الإصدار 2.1.0
قم بزيارة صفحةPyTorch لصفحة Jetson للوصول إلى جميع الإصدارات المختلفة من PyTorch لإصدارات JetPack المختلفة. للاطلاع على قائمة أكثر تفصيلاً على PyTorch ، توافق Torchvision، قم بزيارة صفحة التوافقPyTorch وتوافق Torchvision.
أقام onnxruntime-gpu
ال أونكسر الزمن-gpu الحزمة المستضافة في PyPI لا تحتوي على aarch64
ثنائيات لـ Jetson. لذلك نحن بحاجة إلى تثبيت هذه الحزمة يدوياً. هذه الحزمة مطلوبة لبعض الصادرات.
كل شيء مختلف onnxruntime-gpu
يتم سرد الحزم المقابلة لإصدارات JetPack و Python المختلفة هنا. ومع ذلك، سنقوم هنا بتنزيل وتثبيت onnxruntime-gpu 1.17.0
مع Python3.8
دعم JetPack الذي نستخدمه في هذا الدليل.
wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
ملاحظه
onnxruntime-gpu
سيعيد تلقائيًا إصدار numpy إلى الأحدث. لذلك نحن بحاجة إلى إعادة تثبيت numpy إلى 1.23.5
لإصلاح مشكلة عن طريق التنفيذ
pip install numpy==1.23.5
تشغيل على JetPack 4.x
هنا ندعم الجري Ultralytics على الأجهزة القديمة مثل Jetson Nano. حاليا نستخدم Docker لتحقيق ذلك.
قم بتنفيذ الأمر أدناه لسحب حاوية Docker وتشغيلها على Jetson. يعتمد هذا الأمر على صورة L4t-cuda docker التي تحتوي على CUDA في بيئة L4T.
t=ultralytics/ultralytics:latest-jetson-jetpack4 && sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
استخدم TensorRT على NVIDIA Jetson
من بين جميع تنسيقات تصدير النماذج التي يدعمها Ultralytics ، يقدم TensorRT أفضل أداء استدلالي عند العمل مع أجهزة NVIDIA Jetson ونوصي باستخدام TensorRT مع Jetson. لدينا أيضًا مستند مفصل على TensorRT هنا.
تحويل النموذج إلى TensorRT وتشغيل الاستدلال
ال YOLOv8n نموذج في PyTorch يتم تحويل التنسيق إلى TensorRT لتشغيل الاستدلال مع النموذج المصدر.
مثل
from ultralytics import YOLO
# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")
# Export the model
model.export(format="engine") # creates 'yolov8n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolov8n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
ملاحظه
قم بزيارة صفحة التصدير للوصول إلى الوسائط الإضافية عند تصدير النماذج إلى تنسيقات نماذج مختلفة
NVIDIA معايير جيتسون أورين YOLOv8 المعيارية
YOLOv8 تم تشغيل المعايير من قبل Ultralytics فريق على 10 تنسيقات نماذج مختلفة لقياس السرعة والدقة: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF لايت PaddlePaddle, NCNN. تم تشغيل المعايير على Seeed Studio reComputer J4012 المدعوم من جهاز Jetson Orin NX 16GB بدقة FP32 مع حجم صورة إدخال افتراضي يبلغ 640.
رسم بياني للمقارنة
على الرغم من أن جميع صادرات النماذج تعمل مع NVIDIA جيتسون إلا أننا أدرجنا فقط PyTorch و TorchScript و TensorRT في مخطط المقارنة أدناه لأنها تستخدم GPU على جيتسون وهي مضمونة للحصول على أفضل النتائج. جميع الصادرات الأخرى تستخدم فقط CPU والأداء ليس جيدًا مثل الثلاثة المذكورة أعلاه. يمكنك العثور على معايير لجميع الصادرات في القسم الذي يلي هذا المخطط.
جدول المقارنة التفصيلي
يمثل الجدول أدناه النتائج المعيارية لخمسة نماذج مختلفة (YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x) عبر عشرة تنسيقات مختلفة (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF لايت PaddlePaddle, NCNN) ، مما يعطينا الحالة والحجم ومقياس mAP50-95 (B) ووقت الاستدلال لكل مجموعة.
اداء
تنسيق | حالة | الحجم على القرص (ميغابايت) | mAP50-95 (ب) | وقت الاستدلال (مللي ثانية / im) |
---|---|---|---|---|
PyTorch | ✅ | 6.2 | 0.6381 | 14.3 |
TorchScript | ✅ | 12.4 | 0.6117 | 13.3 |
ONNX | ✅ | 12.2 | 0.6092 | 70.6 |
OpenVINO | ✅ | 12.3 | 0.6092 | 104.2 |
TensorRT | ✅ | 13.6 | 0.6117 | 8.9 |
TF SavedModel | ✅ | 30.6 | 0.6092 | 141.74 |
TF GraphDef | ✅ | 12.3 | 0.6092 | 199.93 |
TF لايت | ✅ | 12.3 | 0.6092 | 349.18 |
PaddlePaddle | ✅ | 24.4 | 0.6030 | 555 |
NCNN | ✅ | 12.2 | 0.6092 | 32 |
تنسيق | حالة | الحجم على القرص (ميغابايت) | mAP50-95 (ب) | وقت الاستدلال (مللي ثانية / im) |
---|---|---|---|---|
PyTorch | ✅ | 21.5 | 0.6967 | 18 |
TorchScript | ✅ | 43.0 | 0.7136 | 23.81 |
ONNX | ✅ | 42.8 | 0.7136 | 185.55 |
OpenVINO | ✅ | 42.9 | 0.7136 | 243.97 |
TensorRT | ✅ | 44.0 | 0.7136 | 14.82 |
TF SavedModel | ✅ | 107 | 0.7136 | 260.03 |
TF GraphDef | ✅ | 42.8 | 0.7136 | 423.4 |
TF لايت | ✅ | 42.8 | 0.7136 | 1046.64 |
PaddlePaddle | ✅ | 85.5 | 0.7140 | 1464 |
NCNN | ✅ | 42.7 | 0.7200 | 63 |
تنسيق | حالة | الحجم على القرص (ميغابايت) | mAP50-95 (ب) | وقت الاستدلال (مللي ثانية / im) |
---|---|---|---|---|
PyTorch | ✅ | 49.7 | 0.7370 | 36.4 |
TorchScript | ✅ | 99.2 | 0.7285 | 53.58 |
ONNX | ✅ | 99 | 0.7280 | 452.09 |
OpenVINO | ✅ | 99.1 | 0.7280 | 544.36 |
TensorRT | ✅ | 100.3 | 0.7285 | 33.21 |
TF SavedModel | ✅ | 247.5 | 0.7280 | 543.65 |
TF GraphDef | ✅ | 99 | 0.7280 | 906.63 |
TF لايت | ✅ | 99 | 0.7280 | 2758.08 |
PaddlePaddle | ✅ | 197.9 | 0.7280 | 3678 |
NCNN | ✅ | 98.9 | 0.7260 | 135 |
تنسيق | حالة | الحجم على القرص (ميغابايت) | mAP50-95 (ب) | وقت الاستدلال (مللي ثانية / im) |
---|---|---|---|---|
PyTorch | ✅ | 83.7 | 0.7768 | 61.3 |
TorchScript | ✅ | 167.2 | 0.7554 | 87.9 |
ONNX | ✅ | 166.8 | 0.7551 | 852.29 |
OpenVINO | ✅ | 167 | 0.7551 | 1012.6 |
TensorRT | ✅ | 168.4 | 0.7554 | 51.23 |
TF SavedModel | ✅ | 417.2 | 0.7551 | 990.45 |
TF GraphDef | ✅ | 166.9 | 0.7551 | 1649.86 |
TF لايت | ✅ | 166.9 | 0.7551 | 5652.37 |
PaddlePaddle | ✅ | 333.6 | 0.7551 | 7114.67 |
NCNN | ✅ | 166.8 | 0.7685 | 231.9 |
تنسيق | حالة | الحجم على القرص (ميغابايت) | mAP50-95 (ب) | وقت الاستدلال (مللي ثانية / im) |
---|---|---|---|---|
PyTorch | ✅ | 130.5 | 0.7759 | 93 |
TorchScript | ✅ | 260.7 | 0.7472 | 135.1 |
ONNX | ✅ | 260.4 | 0.7479 | 1296.13 |
OpenVINO | ✅ | 260.6 | 0.7479 | 1502.15 |
TensorRT | ✅ | 261.8 | 0.7469 | 84.53 |
TF SavedModel | ✅ | 651.1 | 0.7479 | 1451.76 |
TF GraphDef | ✅ | 260.5 | 0.7479 | 4029.36 |
TF لايت | ✅ | 260.4 | 0.7479 | 8772.86 |
PaddlePaddle | ✅ | 520.8 | 0.7479 | 10619.53 |
NCNN | ✅ | 260.4 | 0.7646 | 376.38 |
استكشف المزيد من جهود القياس المعياري من قبل Seeed Studio الذي يعمل على إصدارات مختلفة من أجهزة NVIDIA Jetson.
إعادة إنتاج نتائجنا
لإعادة إنتاج ما سبق Ultralytics تقوم المعايير في جميع تنسيقات التصدير بتشغيل هذا الرمز:
مثل
لاحظ أن نتائج القياس قد تختلف بناء على التكوين الدقيق للأجهزة والبرامج للنظام ، بالإضافة إلى عبء العمل الحالي للنظام في وقت تشغيل المعايير. للحصول على النتائج الأكثر موثوقية ، استخدم مجموعة بيانات تحتوي على عدد كبير من الصور ، أي data='coco8.yaml' (4 val images), or
data='coco.yaml'' (5000 صورة فال).
أفضل الممارسات عند استخدام NVIDIA Jetson
عند استخدام NVIDIA Jetson، هناك بعض أفضل الممارسات التي يجب اتباعها من أجل تمكين أقصى أداء على NVIDIA Jetson الذي يعمل YOLOv8.
-
تمكين وضع الطاقة MAX
سيؤدي تمكين وضع الطاقة القصوى على Jetson إلى التأكد من تشغيل جميع النوى CPU ، GPU .
-
تمكين ساعات جيتسون
سيؤدي تمكين ساعات Jetson Clocks إلى التأكد من أن جميع النوى CPU ، GPU مسجلة على أقصى تردد لها.
-
تثبيت تطبيق إحصائيات جيتسون
يمكننا استخدام تطبيق جيتسون ستاتس لمراقبة درجات حرارة مكونات النظام والتحقق من تفاصيل النظام الأخرى مثل عرض CPU ، GPU ، استخدام ذاكرة الوصول العشوائي، تغيير أوضاع الطاقة، ضبط الساعات على الحد الأقصى، التحقق من معلومات JetPack
الخطوات التالية
تهانينا على الإعداد الناجح YOLOv8 على جهازك NVIDIA جيتسون! لمزيد من التعلم والدعم، قم بزيارة المزيد من الدليل على Ultralytics YOLOv8 Docs!
الأسئلة المتداولة
كيف يمكنني نشر Ultralytics YOLOv8 على أجهزة NVIDIA جيتسون؟
يعد نشر Ultralytics YOLOv8 على أجهزة NVIDIA Jetson عملية مباشرة. أولاً، قم أولاً بوميض جهاز Jetson الخاص بك باستخدام NVIDIA JetPack SDK. بعد ذلك، إما أن تستخدم صورة Docker مبنية مسبقًا لإعداد سريع أو تثبيت الحزم المطلوبة يدويًا. يمكن الاطلاع على الخطوات التفصيلية لكل طريقة في قسمي البدء باستخدام D ocker والبدء بدون Docker.
ما هي معايير الأداء التي يمكنني توقعها من طرازات YOLOv8 على أجهزة NVIDIA Jetson؟
YOLOv8 تم قياس أداء النماذج على مختلف أجهزة NVIDIA Jetson التي تُظهر تحسينات كبيرة في الأداء. على سبيل المثال، يقدم تنسيق TensorRT أفضل أداء في الاستدلال. يوفر الجدول الموجود في قسم جدول المقارنة التفصيلي عرضًا شاملاً لمقاييس الأداء مثل mAP50-95 وزمن الاستدلال عبر تنسيقات النماذج المختلفة.
لماذا يجب أن أستخدم TensorRT لنشر YOLOv8 على NVIDIA جيتسون؟
TensorRT يوصى به بشدة لنشر نماذج YOLOv8 على NVIDIA Jetson نظرًا لأدائه الأمثل. فهو يسرّع الاستدلال من خلال الاستفادة من قدرات جيتسون GPU ، مما يضمن أقصى قدر من الكفاءة والسرعة. تعرف على المزيد حول كيفية التحويل إلى TensorRT وتشغيل الاستدلال في قسم استخدام TensorRT على NVIDIA جيتسون.
كيف يمكنني تثبيت PyTorch و Torchvision على NVIDIA Jetson؟
لتثبيت PyTorch و Torchvision على NVIDIA Jetson، قم أولاً بإلغاء تثبيت أي إصدارات موجودة قد تكون مثبتة عبر pip. ثم قم يدويًا بتثبيت الإصدارين المتوافقين PyTorch و Torchvision يدويًا لبنية ARM64 الخاصة ب Jetson. يتم توفير الإرشادات التفصيلية لهذه العملية في قسم تثبيت PyTorch و Tor chvision.
ما هي أفضل الممارسات لتحقيق أقصى قدر من الأداء على NVIDIA Jetson عند استخدام YOLOv8 ؟
لتحقيق أقصى قدر من الأداء على NVIDIA Jetson مع YOLOv8 ، اتبع أفضل الممارسات التالية:
- تمكين وضع الطاقة القصوى للاستفادة من جميع النوى CPU و GPU .
- تمكين ساعات Jetson Clocks لتشغيل جميع النوى بأقصى تردد لها.
- قم بتثبيت تطبيق Jetson Stats لمراقبة مقاييس النظام.
للحصول على الأوامر والتفاصيل الإضافية، راجع قسم أفضل الممارسات عند استخدام NVIDIA جيتسون.
تم الإنشاء 2024-04-02، تم التحديث 2024-07-05
المؤلفون: جلين-جوشيه (9)، رضوان منور (1)، لاكشانثاد (3)، أهالساماهي (1)، برهان-ق (2)