انتقل إلى المحتوى

Understanding YOLO11's Deployment Options

مقدمة

You've come a long way on your journey with YOLO11. You've diligently collected data, meticulously annotated it, and put in the hours to train and rigorously evaluate your custom YOLO11 model. Now, it's time to put your model to work for your specific application, use case, or project. But there's a critical decision that stands before you: how to export and deploy your model effectively.

This guide walks you through YOLO11's deployment options and the essential factors to consider to choose the right option for your project.

How to Select the Right Deployment Option for Your YOLO11 Model

When it's time to deploy your YOLO11 model, selecting a suitable export format is very important. As outlined in the Ultralytics YOLO11 Modes documentation, the model.export() function allows for converting your trained model into a variety of formats tailored to diverse environments and performance requirements.

يعتمد التنسيق المثالي على السياق التشغيلي المقصود لنموذجك وسرعة الموازنة وقيود الأجهزة وسهولة التكامل. في القسم التالي ، سنلقي نظرة فاحصة على كل خيار تصدير ، ونفهم متى نختار كل خيار.

YOLO11's Deployment Options

Let's walk through the different YOLO11 deployment options. For a detailed walkthrough of the export process, visit the Ultralytics documentation page on exporting.

PyTorch

PyTorch is an open-source machine learning library widely used for applications in deep learning and artificial intelligence. It provides a high level of flexibility and speed, which has made it a favorite among researchers and developers.

  • معايير الأداء: PyTorch معروف بسهولة استخدامه ومرونته ، مما قد يؤدي إلى مقايضة طفيفة في الأداء الخام عند مقارنته بالأطر الأخرى الأكثر تخصصا وتحسينا.

  • التوافق والتكامل: يوفر توافقا ممتازا مع مكتبات علوم البيانات والتعلم الآلي المختلفة في Python.

  • دعم المجتمع والنظام البيئي: أحد أكثر المجتمعات حيوية ، مع موارد واسعة للتعلم واستكشاف الأخطاء وإصلاحها.

  • دراسات الحالة: يشيع استخدامها في النماذج الأولية البحثية ، والعديد من النماذج المرجعية للأوراق الأكاديمية المنتشرة في PyTorch.

  • الصيانة والتحديثات: تحديثات منتظمة مع التطوير النشط ودعم الميزات الجديدة.

  • الاعتبارات الأمنية: تصحيحات منتظمة للمشكلات الأمنية، لكن الأمان يعتمد إلى حد كبير على البيئة العامة التي يتم نشرها فيها.

  • تسريع الأجهزة: يدعم CUDA لتسريع GPU ، وهو أمر ضروري لتسريع تدريب النموذج والاستدلال.

TorchScript

TorchScript يمتد PyTorchمن خلال السماح بتشغيل تصدير النماذج في بيئة وقت تشغيل C++. هذا يجعلها مناسبة لبيئات الإنتاج حيث Python غير متوفر.

  • معايير الأداء: يمكن أن تقدم أداء محسنا مقارنة بالأداء الأصلي PyTorch، خاصة في بيئات الإنتاج.

  • التوافق والتكامل: مصمم للانتقال السلس من PyTorch إلى بيئات إنتاج C ++ ، على الرغم من أن بعض الميزات المتقدمة قد لا تترجم بشكل مثالي.

  • دعم المجتمع والنظام البيئي: يستفيد من مجتمع PyTorch الكبير ولكن لديه نطاق أضيق من المطورين المتخصصين.

  • دراسات الحالة: تُستخدم على نطاق واسع في إعدادات الصناعة حيث يمثل الأداء الزائد Python عنق الزجاجة.

  • الصيانة والتحديثات: يتم صيانتها جنبا إلى جنب PyTorch مع تحديثات متسقة.

  • اعتبارات الأمان: يوفر أمانا محسنا من خلال تمكين تشغيل النماذج في البيئات غير الكاملة Python المنشات.

  • تسريع الأجهزة: يرث دعم CUDA الخاص بـ PyTorch ، مما يضمن كفاءة استخدام GPU .

ONNX

The Open Neural Network Exchange (ONNX) is a format that allows for model interoperability across different frameworks, which can be critical when deploying to various platforms.

  • معايير الأداء: ONNX قد تواجه النماذج أداء متغيرا اعتمادا على وقت التشغيل المحدد الذي يتم نشرها عليه.

  • التوافق والتكامل: قابلية عالية للتشغيل البيني عبر منصات وأجهزة متعددة نظرا لطبيعتها المحايدة لإطار العمل.

  • دعم المجتمع والنظام البيئي: مدعوم من قبل العديد من المنظمات ، مما يؤدي إلى نظام بيئي واسع ومجموعة متنوعة من الأدوات للتحسين.

  • دراسات الحالة: تستخدم بشكل متكرر لنقل النماذج بين أطر التعلم الآلي المختلفة ، مما يدل على مرونتها.

  • الصيانة والتحديثات: كمعيار مفتوح ، ONNX يتم تحديثه بانتظام لدعم العمليات والنماذج الجديدة.

  • اعتبارات الأمان: كما هو الحال مع أي أداة عبر الأنظمة الأساسية ، من الضروري ضمان الممارسات الآمنة في خط أنابيب التحويل والنشر.

  • تسريع الأجهزة: مع ONNX وقت التشغيل ، يمكن للنماذج الاستفادة من تحسينات الأجهزة المختلفة.

OpenVINO

OpenVINO هي مجموعة أدوات Intel مصممة لتسهيل نشر نماذج التعلّم العميق عبر أجهزة Intel ، مما يعزز الأداء والسرعة.

  • معايير الأداء: Intel تم تحسينه خصيصًا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الرسومات ووحدات VPU، مما يوفر تعزيزات كبيرة في الأداء على الأجهزة المتوافقة.

  • التوافق والتكامل: يعمل بشكل أفضل داخل النظام البيئي Intel ولكنه يدعم أيضًا مجموعة من المنصات الأخرى.

  • Community Support and Ecosystem: Backed by Intel, with a solid user base especially in the computer vision domain.

  • Case Studies: Often utilized in IoT and edge computing scenarios where Intel hardware is prevalent.

  • الصيانة والتحديثات: Intel تحديثات منتظمة على الموقع الإلكتروني OpenVINO لدعم أحدث نماذج التعلُّم العميق والأجهزة Intel .

  • اعتبارات الأمان: يوفر ميزات أمان قوية مناسبة للنشر في التطبيقات الحساسة.

  • تسريع الأجهزة: مصممة خصيصًا للتسريع على أجهزة Intel ، والاستفادة من مجموعات التعليمات المخصصة وميزات الأجهزة.

لمزيد من التفاصيل حول النشر باستخدام OpenVINO ، راجع وثائق التكامل Ultralytics التكامل: Intel OpenVINO التصدير.

TensorRT

TensorRT هو مُحسِّن استنتاجات تعلُّم عميق عالي الأداء ووقت تشغيل من NVIDIA ، وهو مثالي للتطبيقات التي تحتاج إلى السرعة والكفاءة.

  • معايير الأداء: يوفر أداءً من الدرجة الأولى على وحدات معالجة الرسومات NVIDIA مع دعم الاستدلال عالي السرعة.

  • التوافق والتكامل: الأنسب للأجهزة NVIDIA ، مع دعم محدود خارج هذه البيئة.

  • دعم المجتمع والنظام البيئي: شبكة دعم قوية من خلال منتديات ووثائق المطورين NVIDIA.

  • دراسات الحالة: معتمدة على نطاق واسع في الصناعات التي تتطلب الاستدلال في الوقت الفعلي على بيانات الفيديو والصور.

  • الصيانة والتحديثات: يحافظ موقع NVIDIA على TensorRT مع تحديثات متكررة لتحسين الأداء ودعم البنى الجديدة GPU .

  • الاعتبارات الأمنية: مثل العديد من منتجات NVIDIA ، فإنه يركز بشدة على الأمان، ولكن التفاصيل تعتمد على بيئة النشر.

  • تسريع الأجهزة: مصممة حصرياً لوحدات معالجة الرسومات NVIDIA ، مما يوفر تحسيناً وتسريعاً عميقاً.

CoreML

CoreML هو إطار عمل التعلم الآلي من Apple، وهو مُحسَّن للأداء على الجهاز في نظام Apple البيئي، بما في ذلك iOS و macOS و watchOS و tvOS.

  • معايير الأداء: محسن للأداء على الجهاز على أجهزة Apple بأقل استخدام للبطارية.

  • التوافق والتكامل: حصريًا لنظام Apple البيئي، مما يوفر سير عمل مبسط لتطبيقات iOS و macOS.

  • دعم المجتمع والنظام البيئي: دعم قوي من Apple ومجتمع مطورين مخصص، مع وثائق وأدوات شاملة.

  • دراسات الحالة: يشيع استخدامها في التطبيقات التي تتطلب إمكانات تعلم الآلة على الجهاز على منتجات Apple.

  • الصيانة والتحديثات: يتم تحديثها بانتظام من قبل Apple لدعم أحدث تطورات التعلم الآلي وأجهزة Apple.

  • Security Considerations: Benefits from Apple's focus on user privacy and data security.

  • تسريع الأجهزة: يستفيد استفادة كاملة من محرك Apple العصبي و GPU لمهام التعلم الآلي المتسارعة.

TF SavedModel

TF SavedModel هل TensorFlowلحفظ نماذج التعلم الآلي وتقديمها، وهو مناسب بشكل خاص لبيئات الخوادم القابلة للتطوير.

  • معايير الأداء: يوفر أداء قابلا للتطوير في بيئات الخادم ، خاصة عند استخدامه مع TensorFlow خدمه.

  • التوافق والتكامل: توافق واسع عبر TensorFlow، بما في ذلك عمليات نشر السحابة وخادم المؤسسة.

  • دعم المجتمع والنظام البيئي: دعم مجتمعي كبير بسبب TensorFlow، مع مجموعة واسعة من الأدوات للنشر والتحسين.

  • دراسات الحالة: تستخدم على نطاق واسع في بيئات الإنتاج لخدمة نماذج التعلم العميق على نطاق واسع.

  • الصيانة والتحديثات: بدعم من Google ومجتمع TensorFlow ، مما يضمن تحديثات منتظمة وميزات جديدة.

  • اعتبارات الأمان: النشر باستخدام TensorFlow تتضمن الخدمة ميزات أمان قوية للتطبيقات على مستوى المؤسسات.

  • تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة من خلال TensorFlowفي الخلفيات.

TF GraphDef

TF GraphDef هو TensorFlow التنسيق الذي يمثل النموذج كرسم بياني ، وهو أمر مفيد للبيئات التي تتطلب رسما بيانيا للحساب الثابت.

  • معايير الأداء: يوفر أداء مستقرا للرسوم البيانية الحسابية الثابتة ، مع التركيز على الاتساق والموثوقية.

  • التوافق والتكامل: يتكامل بسهولة داخل TensorFlowالبنية التحتية ولكن أقل مرونة مقارنة ب SavedModel.

  • دعم المجتمع والنظام البيئي: دعم جيد من TensorFlow، مع العديد من الموارد المتاحة لتحسين الرسوم البيانية الثابتة.

  • دراسات الحالة: مفيدة في السيناريوهات التي يكون فيها الرسم البياني الثابت ضروريا ، كما هو الحال في بعض الأنظمة المضمنة.

  • الصيانة والتحديثات: تحديثات منتظمة جنبا إلى جنب TensorFlowالتحديثات الأساسية.

  • اعتبارات الأمان: يضمن النشر الآمن مع TensorFlowالممارسات الأمنية المعمول بها.

  • تسريع الأجهزة: يمكن الاستفادة منها TensorFlowخيارات تسريع الأجهزة ، وإن لم تكن مرنة مثل SavedModel.

TF لايت

TF لايت هو TensorFlowللتعلم الآلي للأجهزة المحمولة والمدمجة، مما يوفر مكتبة خفيفة الوزن للاستدلال على الجهاز.

  • معايير الأداء: مصممة للسرعة والكفاءة على الأجهزة المحمولة والمدمجة.

  • التوافق والتكامل: يمكن استخدامه على مجموعة واسعة من الأجهزة نظرا لطبيعته خفيفة الوزن.

  • دعم المجتمع والنظام البيئي: مدعوم من Google ، ولديه مجتمع قوي وعدد متزايد من الموارد للمطورين.

  • دراسات الحالة: شائعة في تطبيقات الأجهزة المحمولة التي تتطلب الاستدلال على الجهاز بأقل قدر من المساحة.

  • الصيانة والتحديثات: يتم تحديثها بانتظام لتشمل أحدث الميزات والتحسينات للأجهزة المحمولة.

  • اعتبارات الأمان: يوفر بيئة آمنة لتشغيل النماذج على أجهزة المستخدم النهائي.

  • تسريع الأجهزة: يدعم مجموعة متنوعة من خيارات تسريع الأجهزة، بما في ذلك GPU و DSP.

TF حافة TPU

TF تم تصميم Edge TPU للحوسبة عالية السرعة والفعالية على أجهزة Edge TPU من Google ، وهي مثالية لأجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي.

  • معايير الأداء: تم تحسينها خصيصًا للحوسبة عالية السرعة والفعالية على أجهزة Google'Edge TPU .

  • التوافق والتكامل: يعمل حصريا مع TensorFlow نماذج لايت على Edge TPU الاجهزه.

  • دعم المجتمع والنظام البيئي: دعم متزايد مع الموارد المقدمة من Google ومطوري الطرف الثالث.

  • دراسات الحالة: تستخدم في أجهزة وتطبيقات إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي بزمن انتقال منخفض.

  • الصيانة والتحديثات: تم تحسينها باستمرار للاستفادة من إمكانات Edge الجديدة TPU إصدارات الأجهزة.

  • اعتبارات الأمان: يتكامل مع الأمان القوي لإنترنت الأشياء والأجهزة الطرفية Google.

  • تسريع الأجهزة: مصممة خصيصًا للاستفادة الكاملة من أجهزة Google Coral.

TF.شبيبه

TensorFlow.js (TF.js) هي مكتبة تجلب إمكانات التعلم الآلي مباشرة إلى المتصفح ، مما يوفر مجالا جديدا من الاحتمالات لمطوري الويب والمستخدمين على حد سواء. يسمح بدمج نماذج التعلم الآلي في تطبيقات الويب دون الحاجة إلى بنية تحتية خلفية.

  • معايير الأداء: تمكين التعلم الآلي مباشرة في المتصفح بأداء معقول ، اعتمادا على جهاز العميل.

  • التوافق والتكامل: توافق عالي مع تقنيات الويب ، مما يسمح بالاندماج السهل في تطبيقات الويب.

  • دعم المجتمع والنظام البيئي: دعم من مجتمع مطوري الويب Node.js ، مع مجموعة متنوعة من الأدوات لنشر نماذج ML في المتصفحات.

  • دراسات الحالة: مثالية لتطبيقات الويب التفاعلية التي تستفيد من التعلم الآلي من جانب العميل دون الحاجة إلى معالجة من جانب الخادم.

  • الصيانة والتحديثات: تتم صيانتها بواسطة TensorFlow فريق مع مساهمات من مجتمع المصادر المفتوحة.

  • اعتبارات الأمان: يعمل ضمن السياق الآمن للمتصفح ، باستخدام نموذج الأمان لمنصة الويب.

  • تسريع الأجهزة: يمكن تحسين الأداء باستخدام واجهات برمجة التطبيقات المستندة إلى الويب التي تصل إلى تسريع الأجهزة مثل WebGL.

PaddlePaddle

PaddlePaddle هو إطار عمل مفتوح المصدر للتعلم العميق تم تطويره بواسطة بايدو. إنه مصمم ليكون فعالا للباحثين وسهل الاستخدام للمطورين. تحظى بشعبية خاصة في الصين وتقدم دعما متخصصا لمعالجة اللغة الصينية.

  • معايير الأداء: يقدم أداء تنافسيا مع التركيز على سهولة الاستخدام وقابلية التوسع.

  • التوافق والتكامل: متكامل بشكل جيد في النظام البيئي لشركة Baidu ويدعم مجموعة واسعة من التطبيقات.

  • دعم المجتمع والنظام البيئي: في حين أن المجتمع أصغر على مستوى العالم ، إلا أنه ينمو بسرعة ، خاصة في الصين.

  • دراسات الحالة: يشيع استخدامها في الأسواق الصينية ومن قبل المطورين الذين يبحثون عن بدائل للأطر الرئيسية الأخرى.

  • الصيانة والتحديثات: يتم تحديثها بانتظام مع التركيز على خدمة تطبيقات وخدمات الذكاء الاصطناعي اللغة الصينية.

  • Security Considerations: Emphasizes data privacy and security, catering to Chinese data governance standards.

  • تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة ، بما في ذلك رقائق Kunlun الخاصة ب Baidu.

NCNN

NCNN هو إطار استدلال شبكة عصبية عالي الأداء محسن لمنصة الهاتف المحمول. تتميز بطبيعتها خفيفة الوزن وكفاءتها ، مما يجعلها مناسبة بشكل خاص للأجهزة المحمولة والأجهزة المدمجة حيث تكون الموارد محدودة.

  • معايير الأداء: محسنة للغاية لمنصات الأجهزة المحمولة ، مما يوفر استدلالا فعالا على الأجهزة المستندة إلى ARM.

  • التوافق والتكامل: مناسب للتطبيقات على الهواتف المحمولة والأنظمة المدمجة مع بنية ARM.

  • دعم المجتمع والنظام البيئي: مدعوم من قبل مجتمع متخصص ولكنه نشط يركز على تطبيقات ML المحمولة والمضمنة.

  • دراسات حالة: مفضلة لتطبيقات الأجهزة المحمولة حيث تكون الكفاءة والسرعة أمرًا بالغ الأهمية على Android والأنظمة الأخرى القائمة على ARM.

  • الصيانة والتحديثات: تم تحسينه باستمرار للحفاظ على الأداء العالي على مجموعة من أجهزة ARM.

  • اعتبارات الأمان: يركز على التشغيل محليا على الجهاز ، والاستفادة من الأمان المتأصل في المعالجة على الجهاز.

  • تسريع الأجهزة: مصمم خصيصا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ARM ، مع تحسينات محددة لهذه البنى.

MNN

MNN is a highly efficient and lightweight deep learning framework. It supports inference and training of deep learning models and has industry-leading performance for inference and training on-device. In addition, MNN is also used on embedded devices, such as IoT.

Comparative Analysis of YOLO11 Deployment Options

The following table provides a snapshot of the various deployment options available for YOLO11 models, helping you to assess which may best fit your project needs based on several critical criteria. For an in-depth look at each deployment option's format, please see the Ultralytics documentation page on export formats.

خيار النشرمعايير الأداءالتوافق والتكاملدعم المجتمع والنظام البيئيدراسات الحالةالصيانة والتحديثاتالاعتبارات الأمنيةتسريع الأجهزة
PyTorchمرونة جيدة قد يقايض الأداء الخامممتاز مع Python مكتباتموارد واسعة ومجتمعالبحوث والنماذج الأوليةتطوير منتظم ونشطتعتمد على بيئة النشرCUDA دعم تسريع GPU
TorchScriptأفضل للإنتاج من PyTorchالانتقال السلس من PyTorch إلى C++متخصصة ولكن أضيق من PyTorchالصناعة حيث Python هو عنق الزجاجةتحديثات متسقة مع PyTorchأمان محسن بدون كامل Pythonيرث CUDA الدعم من PyTorch
ONNXمتغير حسب وقت التشغيلعالية عبر أطر عمل مختلفةنظام بيئي واسع ، مدعوم من قبل العديد من المنظماتالمرونة عبر أطر عمل التعلم الآليتحديثات منتظمة للعمليات الجديدةضمان ممارسات التحويل والنشر الآمنةتحسينات الأجهزة المختلفة
OpenVINOمُحسَّن للأجهزة Intelالأفضل داخل النظام البيئي Intelصلب في مجال رؤية الكمبيوترإنترنت الأشياء والحافة مع أجهزة Intelتحديثات منتظمة للأجهزة Intelميزات قوية للتطبيقات الحساسةمصممة خصيصاً للأجهزة Intel
TensorRTأعلى مستوى على NVIDIA GPUsالأفضل للأجهزة NVIDIAشبكة قوية من خلال NVIDIAاستدلال الفيديو والصور في الوقت الحقيقيتحديثات متكررة لوحدات معالجة الرسومات الجديدةالتركيز على الأمنمصممة لوحدات معالجة الرسومات NVIDIA
CoreMLمحسن لأجهزة Apple على الجهازحصريا لنظام Apple البيئيدعم قوي من Apple والمطورينالتعلم الآلي على الجهاز على منتجات Appleتحديثات Apple المنتظمةالتركيز على الخصوصية والأمانمحرك Apple العصبي و GPU
TF SavedModelقابلة للتطوير في بيئات الخادمتوافق واسع في TensorFlow نظام بيئيدعم كبير بسبب TensorFlow شعبيهتقديم النماذج على نطاق واسعتحديثات منتظمة من قبل Google والمجتمعميزات قوية للمؤسساتتسريع الأجهزة المختلفة
TF GraphDefمستقر للرسوم البيانية الحسابية الثابتةيتكامل بشكل جيد مع TensorFlow بنية تحتيةموارد لتحسين الرسوم البيانية الثابتةالسيناريوهات التي تتطلب رسوما بيانية ثابتةالتحديثات جنبا إلى جنب TensorFlow لبالمنشاه TensorFlow الممارسات الأمنيةTensorFlow خيارات التسارع
TF لايتالسرعة والكفاءة على الأجهزة المحمولة / المضمنةمجموعة واسعة من دعم الأجهزةمجتمع قوي، مدعوم من Googleتطبيقات الهاتف المحمول مع الحد الأدنى من البصمةأحدث الميزات للجوالبيئة آمنة على أجهزة المستخدم النهائيGPU و DSP وغيرها
TF حافة TPUمُحسّن للأجهزة Google'Edge TPUحصريا على إيدج TPU الاجهزهالنمو مع Google وموارد الطرف الثالثأجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعليتحسينات ل Edge الجديد TPU الاجهزهGoogleأمان إنترنت الأشياء القويمصممة خصيصاً لـ Google المرجان
TF.شبيبهأداء معقول في المتصفحعالية مع تقنيات الويبدعم مطوري الويب Node.jsتطبيقات الويب التفاعليةTensorFlow مساهمات الفريق والمجتمعنموذج أمان منصة الويبمحسن مع WebGL وواجهات برمجة التطبيقات الأخرى
PaddlePaddleتنافسية وسهلة الاستخدام وقابلة للتطويرنظام بايدو البيئي، دعم واسع للتطبيقاتتنمو بسرعة ، وخاصة في الصينالسوق الصينية ومعالجة اللغةالتركيز على تطبيقات الذكاء الاصطناعي الصينيةيؤكد على خصوصية البيانات وأمانهابما في ذلك رقائق كونلون بايدو
MNNHigh-performance for mobile devices.Mobile and embedded ARM systems and X86-64 CPUMobile/embedded ML communityMoblile systems efficiencyHigh performance maintenance on Mobile Devicesمزايا الأمان على الجهازتحسينات وحدات المعالجة المركزية ووحدات معالجة الرسومات ARM
NCNNمحسن للأجهزة المحمولة المستندة إلى ARMأنظمة ARM المتنقلة والمدمجةمجتمع ML المحمول / المدمج المتخصص ولكن النشطAndroid وكفاءة أنظمة ARMصيانة عالية الأداء على ARMمزايا الأمان على الجهازتحسينات وحدات المعالجة المركزية ووحدات معالجة الرسومات ARM

يمنحك هذا التحليل المقارن نظرة عامة عالية المستوى. للنشر، من الضروري مراعاة المتطلبات والقيود المحددة لمشروعك، والرجوع إلى الوثائق والموارد التفصيلية المتاحة لكل خيار.

المجتمع والدعم

When you're getting started with YOLO11, having a helpful community and support can make a significant impact. Here's how to connect with others who share your interests and get the assistance you need.

الانخراط مع المجتمع الأوسع

  • GitHub Discussions: The YOLO11 repository on GitHub has a "Discussions" section where you can ask questions, report issues, and suggest improvements.

  • Ultralytics خادم الفتنة: Ultralytics يحتوي على خادم Discord حيث يمكنك التفاعل مع المستخدمين والمطورين الآخرين.

الوثائق والموارد الرسمية

  • Ultralytics YOLO11 Docs: The official documentation provides a comprehensive overview of YOLO11, along with guides on installation, usage, and troubleshooting.

These resources will help you tackle challenges and stay updated on the latest trends and best practices in the YOLO11 community.

استنتاج

In this guide, we've explored the different deployment options for YOLO11. We've also discussed the important factors to consider when making your choice. These options allow you to customize your model for various environments and performance requirements, making it suitable for real-world applications.

Don't forget that the YOLO11 and Ultralytics community is a valuable source of help. Connect with other developers and experts to learn unique tips and solutions you might not find in regular documentation. Keep seeking knowledge, exploring new ideas, and sharing your experiences.

نشر سعيد!

الأسئلة المتداولة

What are the deployment options available for YOLO11 on different hardware platforms?

Ultralytics YOLO11 supports various deployment formats, each designed for specific environments and hardware platforms. Key formats include:

  • PyTorch للبحث والنماذج الأولية، مع تكامل ممتاز Python .
  • TorchScript لبيئات الإنتاج التي لا يتوفر فيها Python .
  • ONNX للتوافق عبر المنصات وتسريع الأجهزة.
  • OpenVINO لتحسين الأداء على أجهزة Intel .
  • TensorRT للاستدلال عالي السرعة على وحدات معالجة الرسومات NVIDIA .

لكل تنسيق مزايا فريدة من نوعها. للاطلاع على شرح تفصيلي، راجع وثائق عملية التصدير.

How do I improve the inference speed of my YOLO11 model on an Intel CPU?

To enhance inference speed on Intel CPUs, you can deploy your YOLO11 model using Intel's OpenVINO toolkit. OpenVINO offers significant performance boosts by optimizing models to leverage Intel hardware efficiently.

  1. Convert your YOLO11 model to the OpenVINO format using the model.export() دالة.
  2. اتبع دليل الإعداد التفصيلي في وثائق التصديرIntel OpenVINO التصدير.

لمزيد من المعلومات، اطلع على منشور المدونة.

Can I deploy YOLO11 models on mobile devices?

Yes, YOLO11 models can be deployed on mobile devices using TensorFlow Lite (TF Lite) for both Android and iOS platforms. TF Lite is designed for mobile and embedded devices, providing efficient on-device inference.

مثل

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

لمزيد من التفاصيل حول نشر النماذج على الهاتف المحمول، راجع دليل التكاملTF Lite الخاص بنا.

What factors should I consider when choosing a deployment format for my YOLO11 model?

When choosing a deployment format for YOLO11, consider the following factors:

  • الأداء: توفر بعض التنسيقات مثل TensorRT سرعات استثنائية على وحدات معالجة الرسومات NVIDIA ، بينما تم تحسين OpenVINO للأجهزة Intel .
  • التوافق: ONNX يوفر توافقاً واسعاً عبر مختلف المنصات.
  • سهولة التكامل: تنسيقات مثل CoreML أو TF Lite مصممة خصيصًا لأنظمة بيئية محددة مثل iOS و Android ، على التوالي.
  • Community Support: Formats like PyTorch and TensorFlow have extensive community resources and support.

للحصول على تحليل مقارن، راجع وثائق تنسيقات التصدير الخاصة بنا.

How can I deploy YOLO11 models in a web application?

To deploy YOLO11 models in a web application, you can use TensorFlow.js (TF.js), which allows for running machine learning models directly in the browser. This approach eliminates the need for backend infrastructure and provides real-time performance.

  1. Export the YOLO11 model to the TF.js format.
  2. ادمج النموذج المُصدَّر في تطبيق الويب الخاص بك.

للاطلاع على الإرشادات خطوة بخطوة، راجع دليلنا حول تكاملTensorFlow.js.

📅 Created 11 months ago ✏️ Updated 5 days ago

التعليقات