انتقل إلى المحتوى

فهم YOLOv8خيارات النشر

مقدمة

لقد قطعت شوطا طويلا في رحلتك مع YOLOv8. لقد جمعت البيانات بجد ، وشرحتها بدقة ، وخصصت ساعات للتدريب والتقييم الدقيق لمخصصاتك YOLOv8 نموذج. الآن ، حان الوقت لوضع نموذجك للعمل مع تطبيقك أو حالة الاستخدام أو المشروع المحدد. ولكن هناك قرار حاسم أمامك: كيفية تصدير النموذج الخاص بك ونشره بشكل فعال.

يرشدك هذا الدليل YOLOv8خيارات النشر والعوامل الأساسية التي يجب مراعاتها لاختيار الخيار المناسب لمشروعك.

كيفية تحديد خيار النشر المناسب لك YOLOv8 نموذج

عندما يحين وقت نشر YOLOv8 نموذج ، اختيار تنسيق تصدير مناسب مهم جدا. كما هو موضح في Ultralytics YOLOv8 توثيق الأوضاع ، تسمح وظيفة model.export() بتحويل نموذجك المدرب إلى مجموعة متنوعة من التنسيقات المصممة خصيصا لبيئات ومتطلبات أداء متنوعة.

يعتمد التنسيق المثالي على السياق التشغيلي المقصود لنموذجك وسرعة الموازنة وقيود الأجهزة وسهولة التكامل. في القسم التالي ، سنلقي نظرة فاحصة على كل خيار تصدير ، ونفهم متى نختار كل خيار.

YOLOv8خيارات النشر

دعنا نستعرض خيارات النشر المختلفة YOLOv8 . للاطلاع على شرح تفصيلي لعملية التصدير، يرجى زيارة صفحة التوثيقUltralytics الخاصة بالتصدير.

PyTorch

PyTorch هي مكتبة تعلم آلي مفتوحة المصدر تستخدم على نطاق واسع للتطبيقات في التعلم العميق والذكاء الاصطناعي. يوفر مستوى عال من المرونة والسرعة ، مما جعله المفضل لدى الباحثين والمطورين.

  • معايير الأداء: PyTorch معروف بسهولة استخدامه ومرونته ، مما قد يؤدي إلى مقايضة طفيفة في الأداء الخام عند مقارنته بالأطر الأخرى الأكثر تخصصا وتحسينا.

  • التوافق والتكامل: يوفر توافقا ممتازا مع مكتبات علوم البيانات والتعلم الآلي المختلفة في Python.

  • دعم المجتمع والنظام البيئي: أحد أكثر المجتمعات حيوية ، مع موارد واسعة للتعلم واستكشاف الأخطاء وإصلاحها.

  • دراسات الحالة: يشيع استخدامها في النماذج الأولية البحثية ، والعديد من النماذج المرجعية للأوراق الأكاديمية المنتشرة في PyTorch.

  • الصيانة والتحديثات: تحديثات منتظمة مع التطوير النشط ودعم الميزات الجديدة.

  • الاعتبارات الأمنية: تصحيحات منتظمة للمشكلات الأمنية، لكن الأمان يعتمد إلى حد كبير على البيئة العامة التي يتم نشرها فيها.

  • تسريع الأجهزة: يدعم CUDA لتسريع GPU ، وهو أمر ضروري لتسريع تدريب النموذج والاستدلال.

TorchScript

TorchScript يمتد PyTorchمن خلال السماح بتشغيل تصدير النماذج في بيئة وقت تشغيل C++. هذا يجعلها مناسبة لبيئات الإنتاج حيث Python غير متوفر.

  • معايير الأداء: يمكن أن تقدم أداء محسنا مقارنة بالأداء الأصلي PyTorch، خاصة في بيئات الإنتاج.

  • التوافق والتكامل: مصمم للانتقال السلس من PyTorch إلى بيئات إنتاج C ++ ، على الرغم من أن بعض الميزات المتقدمة قد لا تترجم بشكل مثالي.

  • دعم المجتمع والنظام البيئي: يستفيد من مجتمع PyTorch الكبير ولكن لديه نطاق أضيق من المطورين المتخصصين.

  • دراسات الحالة: تُستخدم على نطاق واسع في إعدادات الصناعة حيث يمثل الأداء الزائد Python عنق الزجاجة.

  • الصيانة والتحديثات: يتم صيانتها جنبا إلى جنب PyTorch مع تحديثات متسقة.

  • اعتبارات الأمان: يوفر أمانا محسنا من خلال تمكين تشغيل النماذج في البيئات غير الكاملة Python المنشات.

  • تسريع الأجهزة: يرث دعم CUDA الخاص بـ PyTorch ، مما يضمن كفاءة استخدام GPU .

ONNX

تبادل الشبكة العصبية المفتوحة (ONNX) هو نسق يسمح بإمكانية التشغيل البيني للنموذج عبر أطر مختلفة، والتي يمكن أن تكون حاسمة عند النشر على منصات مختلفة.

  • معايير الأداء: ONNX قد تواجه النماذج أداء متغيرا اعتمادا على وقت التشغيل المحدد الذي يتم نشرها عليه.

  • التوافق والتكامل: قابلية عالية للتشغيل البيني عبر منصات وأجهزة متعددة نظرا لطبيعتها المحايدة لإطار العمل.

  • دعم المجتمع والنظام البيئي: مدعوم من قبل العديد من المنظمات ، مما يؤدي إلى نظام بيئي واسع ومجموعة متنوعة من الأدوات للتحسين.

  • دراسات الحالة: تستخدم بشكل متكرر لنقل النماذج بين أطر التعلم الآلي المختلفة ، مما يدل على مرونتها.

  • الصيانة والتحديثات: كمعيار مفتوح ، ONNX يتم تحديثه بانتظام لدعم العمليات والنماذج الجديدة.

  • اعتبارات الأمان: كما هو الحال مع أي أداة عبر الأنظمة الأساسية ، من الضروري ضمان الممارسات الآمنة في خط أنابيب التحويل والنشر.

  • تسريع الأجهزة: مع ONNX وقت التشغيل ، يمكن للنماذج الاستفادة من تحسينات الأجهزة المختلفة.

OpenVINO

OpenVINO هي مجموعة أدوات Intel مصممة لتسهيل نشر نماذج التعلّم العميق عبر أجهزة Intel ، مما يعزز الأداء والسرعة.

  • معايير الأداء: Intel تم تحسينه خصيصًا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الرسومات ووحدات VPU، مما يوفر تعزيزات كبيرة في الأداء على الأجهزة المتوافقة.

  • التوافق والتكامل: يعمل بشكل أفضل داخل النظام البيئي Intel ولكنه يدعم أيضًا مجموعة من المنصات الأخرى.

  • دعم المجتمع والنظام البيئي: مدعوم من Intel ، مع قاعدة مستخدمين قوية خاصة في مجال الرؤية الحاسوبية.

  • دراسات الحالة: غالبًا ما تُستخدم في سيناريوهات إنترنت الأشياء والحوسبة الطرفية حيث تنتشر الأجهزة Intel .

  • الصيانة والتحديثات: Intel تحديثات منتظمة على الموقع الإلكتروني OpenVINO لدعم أحدث نماذج التعلُّم العميق والأجهزة Intel .

  • اعتبارات الأمان: يوفر ميزات أمان قوية مناسبة للنشر في التطبيقات الحساسة.

  • تسريع الأجهزة: مصممة خصيصًا للتسريع على أجهزة Intel ، والاستفادة من مجموعات التعليمات المخصصة وميزات الأجهزة.

لمزيد من التفاصيل حول النشر باستخدام OpenVINO ، راجع وثائق التكامل Ultralytics التكامل: Intel OpenVINO التصدير.

TensorRT

TensorRT هو مُحسِّن استنتاجات تعلُّم عميق عالي الأداء ووقت تشغيل من NVIDIA ، وهو مثالي للتطبيقات التي تحتاج إلى السرعة والكفاءة.

  • معايير الأداء: يوفر أداءً من الدرجة الأولى على وحدات معالجة الرسومات NVIDIA مع دعم الاستدلال عالي السرعة.

  • التوافق والتكامل: الأنسب للأجهزة NVIDIA ، مع دعم محدود خارج هذه البيئة.

  • دعم المجتمع والنظام البيئي: شبكة دعم قوية من خلال منتديات ووثائق المطورين NVIDIA.

  • دراسات الحالة: معتمدة على نطاق واسع في الصناعات التي تتطلب الاستدلال في الوقت الفعلي على بيانات الفيديو والصور.

  • الصيانة والتحديثات: يحافظ موقع NVIDIA على TensorRT مع تحديثات متكررة لتحسين الأداء ودعم البنى الجديدة GPU .

  • الاعتبارات الأمنية: مثل العديد من منتجات NVIDIA ، فإنه يركز بشدة على الأمان، ولكن التفاصيل تعتمد على بيئة النشر.

  • تسريع الأجهزة: مصممة حصرياً لوحدات معالجة الرسومات NVIDIA ، مما يوفر تحسيناً وتسريعاً عميقاً.

CoreML

CoreML هو إطار عمل التعلم الآلي من Apple، وهو مُحسَّن للأداء على الجهاز في نظام Apple البيئي، بما في ذلك iOS و macOS و watchOS و tvOS.

  • معايير الأداء: محسن للأداء على الجهاز على أجهزة Apple بأقل استخدام للبطارية.

  • التوافق والتكامل: حصريًا لنظام Apple البيئي، مما يوفر سير عمل مبسط لتطبيقات iOS و macOS.

  • دعم المجتمع والنظام البيئي: دعم قوي من Apple ومجتمع مطورين مخصص، مع وثائق وأدوات شاملة.

  • دراسات الحالة: يشيع استخدامها في التطبيقات التي تتطلب إمكانات تعلم الآلة على الجهاز على منتجات Apple.

  • الصيانة والتحديثات: يتم تحديثها بانتظام من قبل Apple لدعم أحدث تطورات التعلم الآلي وأجهزة Apple.

  • اعتبارات الأمان: يستفيد من تركيز Apple على خصوصية المستخدم وأمن البيانات.

  • تسريع الأجهزة: يستفيد استفادة كاملة من محرك Apple العصبي و GPU لمهام التعلم الآلي المتسارعة.

TF SavedModel

TF SavedModel هل TensorFlowلحفظ نماذج التعلم الآلي وتقديمها، وهو مناسب بشكل خاص لبيئات الخوادم القابلة للتطوير.

  • معايير الأداء: يوفر أداء قابلا للتطوير في بيئات الخادم ، خاصة عند استخدامه مع TensorFlow خدمه.

  • التوافق والتكامل: توافق واسع عبر TensorFlow، بما في ذلك عمليات نشر السحابة وخادم المؤسسة.

  • دعم المجتمع والنظام البيئي: دعم مجتمعي كبير بسبب TensorFlow، مع مجموعة واسعة من الأدوات للنشر والتحسين.

  • دراسات الحالة: تستخدم على نطاق واسع في بيئات الإنتاج لخدمة نماذج التعلم العميق على نطاق واسع.

  • الصيانة والتحديثات: بدعم من Google ومجتمع TensorFlow ، مما يضمن تحديثات منتظمة وميزات جديدة.

  • اعتبارات الأمان: النشر باستخدام TensorFlow تتضمن الخدمة ميزات أمان قوية للتطبيقات على مستوى المؤسسات.

  • تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة من خلال TensorFlowفي الخلفيات.

TF GraphDef

TF GraphDef هو TensorFlow التنسيق الذي يمثل النموذج كرسم بياني ، وهو أمر مفيد للبيئات التي تتطلب رسما بيانيا للحساب الثابت.

  • معايير الأداء: يوفر أداء مستقرا للرسوم البيانية الحسابية الثابتة ، مع التركيز على الاتساق والموثوقية.

  • التوافق والتكامل: يتكامل بسهولة داخل TensorFlowالبنية التحتية ولكن أقل مرونة مقارنة ب SavedModel.

  • دعم المجتمع والنظام البيئي: دعم جيد من TensorFlow، مع العديد من الموارد المتاحة لتحسين الرسوم البيانية الثابتة.

  • دراسات الحالة: مفيدة في السيناريوهات التي يكون فيها الرسم البياني الثابت ضروريا ، كما هو الحال في بعض الأنظمة المضمنة.

  • الصيانة والتحديثات: تحديثات منتظمة جنبا إلى جنب TensorFlowالتحديثات الأساسية.

  • اعتبارات الأمان: يضمن النشر الآمن مع TensorFlowالممارسات الأمنية المعمول بها.

  • تسريع الأجهزة: يمكن الاستفادة منها TensorFlowخيارات تسريع الأجهزة ، وإن لم تكن مرنة مثل SavedModel.

TF لايت

TF لايت هو TensorFlowللتعلم الآلي للأجهزة المحمولة والمدمجة، مما يوفر مكتبة خفيفة الوزن للاستدلال على الجهاز.

  • معايير الأداء: مصممة للسرعة والكفاءة على الأجهزة المحمولة والمدمجة.

  • التوافق والتكامل: يمكن استخدامه على مجموعة واسعة من الأجهزة نظرا لطبيعته خفيفة الوزن.

  • دعم المجتمع والنظام البيئي: مدعوم من Google ، ولديه مجتمع قوي وعدد متزايد من الموارد للمطورين.

  • دراسات الحالة: شائعة في تطبيقات الأجهزة المحمولة التي تتطلب الاستدلال على الجهاز بأقل قدر من المساحة.

  • الصيانة والتحديثات: يتم تحديثها بانتظام لتشمل أحدث الميزات والتحسينات للأجهزة المحمولة.

  • اعتبارات الأمان: يوفر بيئة آمنة لتشغيل النماذج على أجهزة المستخدم النهائي.

  • تسريع الأجهزة: يدعم مجموعة متنوعة من خيارات تسريع الأجهزة، بما في ذلك GPU و DSP.

TF حافة TPU

TF تم تصميم Edge TPU للحوسبة عالية السرعة والفعالية على أجهزة Edge TPU من Google ، وهي مثالية لأجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي.

  • معايير الأداء: تم تحسينها خصيصًا للحوسبة عالية السرعة والفعالية على أجهزة Google'Edge TPU .

  • التوافق والتكامل: يعمل حصريا مع TensorFlow نماذج لايت على Edge TPU الاجهزه.

  • دعم المجتمع والنظام البيئي: دعم متزايد مع الموارد المقدمة من Google ومطوري الطرف الثالث.

  • دراسات الحالة: تستخدم في أجهزة وتطبيقات إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي بزمن انتقال منخفض.

  • الصيانة والتحديثات: تم تحسينها باستمرار للاستفادة من إمكانات Edge الجديدة TPU إصدارات الأجهزة.

  • اعتبارات الأمان: يتكامل مع الأمان القوي لإنترنت الأشياء والأجهزة الطرفية Google.

  • تسريع الأجهزة: مصممة خصيصًا للاستفادة الكاملة من أجهزة Google Coral.

TF.شبيبه

TensorFlow.js (TF.js) هي مكتبة تجلب إمكانات التعلم الآلي مباشرة إلى المتصفح ، مما يوفر مجالا جديدا من الاحتمالات لمطوري الويب والمستخدمين على حد سواء. يسمح بدمج نماذج التعلم الآلي في تطبيقات الويب دون الحاجة إلى بنية تحتية خلفية.

  • معايير الأداء: تمكين التعلم الآلي مباشرة في المتصفح بأداء معقول ، اعتمادا على جهاز العميل.

  • التوافق والتكامل: توافق عالي مع تقنيات الويب ، مما يسمح بالاندماج السهل في تطبيقات الويب.

  • دعم المجتمع والنظام البيئي: دعم من مجتمع مطوري الويب Node.js ، مع مجموعة متنوعة من الأدوات لنشر نماذج ML في المتصفحات.

  • دراسات الحالة: مثالية لتطبيقات الويب التفاعلية التي تستفيد من التعلم الآلي من جانب العميل دون الحاجة إلى معالجة من جانب الخادم.

  • الصيانة والتحديثات: تتم صيانتها بواسطة TensorFlow فريق مع مساهمات من مجتمع المصادر المفتوحة.

  • اعتبارات الأمان: يعمل ضمن السياق الآمن للمتصفح ، باستخدام نموذج الأمان لمنصة الويب.

  • تسريع الأجهزة: يمكن تحسين الأداء باستخدام واجهات برمجة التطبيقات المستندة إلى الويب التي تصل إلى تسريع الأجهزة مثل WebGL.

PaddlePaddle

PaddlePaddle هو إطار عمل مفتوح المصدر للتعلم العميق تم تطويره بواسطة بايدو. إنه مصمم ليكون فعالا للباحثين وسهل الاستخدام للمطورين. تحظى بشعبية خاصة في الصين وتقدم دعما متخصصا لمعالجة اللغة الصينية.

  • معايير الأداء: يقدم أداء تنافسيا مع التركيز على سهولة الاستخدام وقابلية التوسع.

  • التوافق والتكامل: متكامل بشكل جيد في النظام البيئي لشركة Baidu ويدعم مجموعة واسعة من التطبيقات.

  • دعم المجتمع والنظام البيئي: في حين أن المجتمع أصغر على مستوى العالم ، إلا أنه ينمو بسرعة ، خاصة في الصين.

  • دراسات الحالة: يشيع استخدامها في الأسواق الصينية ومن قبل المطورين الذين يبحثون عن بدائل للأطر الرئيسية الأخرى.

  • الصيانة والتحديثات: يتم تحديثها بانتظام مع التركيز على خدمة تطبيقات وخدمات الذكاء الاصطناعي اللغة الصينية.

  • الاعتبارات الأمنية: يؤكد على خصوصية البيانات وأمانها ، ويلبي معايير إدارة البيانات الصينية.

  • تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة ، بما في ذلك رقائق Kunlun الخاصة ب Baidu.

NCNN

NCNN هو إطار استدلال شبكة عصبية عالي الأداء محسن لمنصة الهاتف المحمول. تتميز بطبيعتها خفيفة الوزن وكفاءتها ، مما يجعلها مناسبة بشكل خاص للأجهزة المحمولة والأجهزة المدمجة حيث تكون الموارد محدودة.

  • معايير الأداء: محسنة للغاية لمنصات الأجهزة المحمولة ، مما يوفر استدلالا فعالا على الأجهزة المستندة إلى ARM.

  • التوافق والتكامل: مناسب للتطبيقات على الهواتف المحمولة والأنظمة المدمجة مع بنية ARM.

  • دعم المجتمع والنظام البيئي: مدعوم من قبل مجتمع متخصص ولكنه نشط يركز على تطبيقات ML المحمولة والمضمنة.

  • دراسات حالة: مفضلة لتطبيقات الأجهزة المحمولة حيث تكون الكفاءة والسرعة أمرًا بالغ الأهمية على Android والأنظمة الأخرى القائمة على ARM.

  • الصيانة والتحديثات: تم تحسينه باستمرار للحفاظ على الأداء العالي على مجموعة من أجهزة ARM.

  • اعتبارات الأمان: يركز على التشغيل محليا على الجهاز ، والاستفادة من الأمان المتأصل في المعالجة على الجهاز.

  • تسريع الأجهزة: مصمم خصيصا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ARM ، مع تحسينات محددة لهذه البنى.

تحليل مقارن ل YOLOv8 خيارات النشر

يوفر الجدول التالي لمحة عن خيارات النشر المختلفة المتوفرة ل YOLOv8 النماذج ، مما يساعدك على تقييم أيها قد يناسب احتياجات مشروعك بناء على العديد من المعايير الهامة. لإلقاء نظرة متعمقة على تنسيق كل خيار نشر ، يرجى الاطلاع على Ultralytics صفحة الوثائق الخاصة بتنسيقات التصدير.

خيار النشر معايير الأداء التوافق والتكامل دعم المجتمع والنظام البيئي دراسات الحالة الصيانة والتحديثات الاعتبارات الأمنية تسريع الأجهزة
PyTorch مرونة جيدة قد يقايض الأداء الخام ممتاز مع Python مكتبات موارد واسعة ومجتمع البحوث والنماذج الأولية تطوير منتظم ونشط تعتمد على بيئة النشر CUDA دعم تسريع GPU
TorchScript أفضل للإنتاج من PyTorch الانتقال السلس من PyTorch إلى C++ متخصصة ولكن أضيق من PyTorch الصناعة حيث Python هو عنق الزجاجة تحديثات متسقة مع PyTorch أمان محسن بدون كامل Python يرث CUDA الدعم من PyTorch
ONNX متغير حسب وقت التشغيل عالية عبر أطر عمل مختلفة نظام بيئي واسع ، مدعوم من قبل العديد من المنظمات المرونة عبر أطر عمل التعلم الآلي تحديثات منتظمة للعمليات الجديدة ضمان ممارسات التحويل والنشر الآمنة تحسينات الأجهزة المختلفة
OpenVINO مُحسَّن للأجهزة Intel الأفضل داخل النظام البيئي Intel صلب في مجال رؤية الكمبيوتر إنترنت الأشياء والحافة مع أجهزة Intel تحديثات منتظمة للأجهزة Intel ميزات قوية للتطبيقات الحساسة مصممة خصيصاً للأجهزة Intel
TensorRT أعلى مستوى على NVIDIA GPUs الأفضل للأجهزة NVIDIA شبكة قوية من خلال NVIDIA استدلال الفيديو والصور في الوقت الحقيقي تحديثات متكررة لوحدات معالجة الرسومات الجديدة التركيز على الأمن مصممة لوحدات معالجة الرسومات NVIDIA
CoreML محسن لأجهزة Apple على الجهاز حصريا لنظام Apple البيئي دعم قوي من Apple والمطورين التعلم الآلي على الجهاز على منتجات Apple تحديثات Apple المنتظمة التركيز على الخصوصية والأمان محرك Apple العصبي و GPU
TF SavedModel قابلة للتطوير في بيئات الخادم توافق واسع في TensorFlow نظام بيئي دعم كبير بسبب TensorFlow شعبيه تقديم النماذج على نطاق واسع تحديثات منتظمة من قبل Google والمجتمع ميزات قوية للمؤسسات تسريع الأجهزة المختلفة
TF GraphDef مستقر للرسوم البيانية الحسابية الثابتة يتكامل بشكل جيد مع TensorFlow بنية تحتية موارد لتحسين الرسوم البيانية الثابتة السيناريوهات التي تتطلب رسوما بيانية ثابتة التحديثات جنبا إلى جنب TensorFlow لب المنشاه TensorFlow الممارسات الأمنية TensorFlow خيارات التسارع
TF لايت السرعة والكفاءة على الأجهزة المحمولة / المضمنة مجموعة واسعة من دعم الأجهزة مجتمع قوي، مدعوم من Google تطبيقات الهاتف المحمول مع الحد الأدنى من البصمة أحدث الميزات للجوال بيئة آمنة على أجهزة المستخدم النهائي GPU و DSP وغيرها
TF حافة TPU مُحسّن للأجهزة Google'Edge TPU حصريا على إيدج TPU الاجهزه النمو مع Google وموارد الطرف الثالث أجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي تحسينات ل Edge الجديد TPU الاجهزه Googleأمان إنترنت الأشياء القوي مصممة خصيصاً لـ Google المرجان
TF.شبيبه أداء معقول في المتصفح عالية مع تقنيات الويب دعم مطوري الويب Node.js تطبيقات الويب التفاعلية TensorFlow مساهمات الفريق والمجتمع نموذج أمان منصة الويب محسن مع WebGL وواجهات برمجة التطبيقات الأخرى
PaddlePaddle تنافسية وسهلة الاستخدام وقابلة للتطوير نظام بايدو البيئي، دعم واسع للتطبيقات تنمو بسرعة ، وخاصة في الصين السوق الصينية ومعالجة اللغة التركيز على تطبيقات الذكاء الاصطناعي الصينية يؤكد على خصوصية البيانات وأمانها بما في ذلك رقائق كونلون بايدو
NCNN محسن للأجهزة المحمولة المستندة إلى ARM أنظمة ARM المتنقلة والمدمجة مجتمع ML المحمول / المدمج المتخصص ولكن النشط Android وكفاءة أنظمة ARM صيانة عالية الأداء على ARM مزايا الأمان على الجهاز تحسينات وحدات المعالجة المركزية ووحدات معالجة الرسومات ARM

يمنحك هذا التحليل المقارن نظرة عامة عالية المستوى. للنشر، من الضروري مراعاة المتطلبات والقيود المحددة لمشروعك، والرجوع إلى الوثائق والموارد التفصيلية المتاحة لكل خيار.

المجتمع والدعم

عندما تبدأ مع YOLOv8، فإن وجود مجتمع ودعم مفيدين يمكن أن يكون له تأثير كبير. إليك كيفية التواصل مع الآخرين الذين يشاركونك اهتماماتك والحصول على المساعدة التي تحتاجها.

الانخراط مع المجتمع الأوسع

  • مناقشات جيثب: ال YOLOv8 يحتوي المستودع على GitHub على قسم "المناقشات" حيث يمكنك طرح الأسئلة والإبلاغ عن المشكلات واقتراح التحسينات.

  • Ultralytics خادم الفتنة: Ultralytics يحتوي على خادم Discord حيث يمكنك التفاعل مع المستخدمين والمطورين الآخرين.

الوثائق والموارد الرسمية

  • Ultralytics YOLOv8 المستندات: توفر الوثائق الرسمية نظرة عامة شاملة على YOLOv8، إلى جانب أدلة حول التثبيت والاستخدام واستكشاف الأخطاء وإصلاحها.

ستساعدك هذه الموارد على مواجهة التحديات والبقاء على اطلاع دائم بأحدث الاتجاهات وأفضل الممارسات في YOLOv8 مجتمع.

استنتاج

في هذا الدليل ، استكشفنا خيارات النشر المختلفة ل YOLOv8. لقد ناقشنا أيضا العوامل المهمة التي يجب مراعاتها عند اتخاذ اختيارك. تتيح لك هذه الخيارات تخصيص نموذجك لمختلف البيئات ومتطلبات الأداء ، مما يجعله مناسبا لتطبيقات العالم الحقيقي.

لا تنس أن YOLOv8 و Ultralytics المجتمع هو مصدر قيم للمساعدة. تواصل مع المطورين والخبراء الآخرين لمعرفة النصائح والحلول الفريدة التي قد لا تجدها في الوثائق العادية. استمر في البحث عن المعرفة واستكشاف الأفكار الجديدة ومشاركة تجاربك.

نشر سعيد!

الأسئلة المتداولة

ما هي خيارات النشر المتاحة على YOLOv8 على منصات الأجهزة المختلفة؟

Ultralytics YOLOv8 يدعم تنسيقات نشر مختلفة، كل منها مصمم لبيئات ومنصات أجهزة محددة. تتضمن التنسيقات الرئيسية ما يلي:

  • PyTorch للبحث والنماذج الأولية، مع تكامل ممتاز Python .
  • TorchScript لبيئات الإنتاج التي لا يتوفر فيها Python .
  • ONNX للتوافق عبر المنصات وتسريع الأجهزة.
  • OpenVINO لتحسين الأداء على أجهزة Intel .
  • TensorRT للاستدلال عالي السرعة على وحدات معالجة الرسومات NVIDIA .

لكل تنسيق مزايا فريدة من نوعها. للاطلاع على شرح تفصيلي، راجع وثائق عملية التصدير.

كيف يمكنني تحسين سرعة الاستدلال لنموذجي YOLOv8 على Intel CPU ؟

لتعزيز سرعة الاستدلال على وحدات المعالجة المركزية Intel ، يمكنك نشر نموذج YOLOv8 الخاص بك باستخدام مجموعة أدوات Intel OpenVINO . OpenVINO يوفر تعزيزات كبيرة في الأداء من خلال تحسين النماذج للاستفادة من أجهزة Intel بكفاءة.

  1. قم بتحويل النموذج YOLOv8 الخاص بك إلى تنسيق OpenVINO باستخدام model.export() دالة.
  2. اتبع دليل الإعداد التفصيلي في وثائق التصديرIntel OpenVINO التصدير.

لمزيد من المعلومات، اطلع على منشور المدونة.

هل يمكنني نشر نماذج YOLOv8 على الأجهزة المحمولة؟

TF نعم، يمكن نشر نماذج YOLOv8 على الأجهزة المحمولة باستخدام TensorFlow Lite ( Lite) لكل من منصتي Android و iOS . TF تم تصميم Lite للأجهزة المحمولة والأجهزة المدمجة، مما يوفر استدلالاً فعالاً على الجهاز.

مثل

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

لمزيد من التفاصيل حول نشر النماذج على الهاتف المحمول، راجع دليل التكاملTF Lite الخاص بنا.

ما هي العوامل التي يجب أن أضعها في الاعتبار عند اختيار تنسيق النشر لطراز YOLOv8 الخاص بي؟

عند اختيار تنسيق نشر YOLOv8 ، ضع في اعتبارك العوامل التالية:

  • الأداء: توفر بعض التنسيقات مثل TensorRT سرعات استثنائية على وحدات معالجة الرسومات NVIDIA ، بينما تم تحسين OpenVINO للأجهزة Intel .
  • التوافق: ONNX يوفر توافقاً واسعاً عبر مختلف المنصات.
  • سهولة التكامل: تنسيقات مثل CoreML أو TF Lite مصممة خصيصًا لأنظمة بيئية محددة مثل iOS و Android ، على التوالي.
  • الدعم المجتمعي: تتمتع أشكال مثل PyTorch و TensorFlow بموارد ودعم مجتمعي واسع النطاق.

للحصول على تحليل مقارن، راجع وثائق تنسيقات التصدير الخاصة بنا.

كيف يمكنني نشر نماذج YOLOv8 في تطبيق ويب؟

لنشر النماذج YOLOv8 في تطبيق ويب، يمكنك استخدام TensorFlow.js (TF.js)، والذي يسمح بتشغيل نماذج التعلم الآلي مباشرةً في المتصفح. هذا النهج يلغي الحاجة إلى البنية التحتية الخلفية ويوفر أداءً في الوقت الفعلي.

  1. قم بتصدير النموذج YOLOv8 إلى تنسيق TF.js.
  2. ادمج النموذج المُصدَّر في تطبيق الويب الخاص بك.

للاطلاع على الإرشادات خطوة بخطوة، راجع دليلنا حول تكاملTensorFlow.js.



تم الإنشاء 2023-11-12-2023، تم التحديث 2024-07-05
المؤلفون: جلين-جوتشر (10)، أبيرامي-فينا (1)

التعليقات