Understanding YOLO11's Deployment Options
مقدمة
You've come a long way on your journey with YOLO11. You've diligently collected data, meticulously annotated it, and put in the hours to train and rigorously evaluate your custom YOLO11 model. Now, it's time to put your model to work for your specific application, use case, or project. But there's a critical decision that stands before you: how to export and deploy your model effectively.
This guide walks you through YOLO11's deployment options and the essential factors to consider to choose the right option for your project.
How to Select the Right Deployment Option for Your YOLO11 Model
When it's time to deploy your YOLO11 model, selecting a suitable export format is very important. As outlined in the Ultralytics YOLO11 Modes documentation, the model.export() function allows for converting your trained model into a variety of formats tailored to diverse environments and performance requirements.
يعتمد التنسيق المثالي على السياق التشغيلي المقصود لنموذجك وسرعة الموازنة وقيود الأجهزة وسهولة التكامل. في القسم التالي ، سنلقي نظرة فاحصة على كل خيار تصدير ، ونفهم متى نختار كل خيار.
YOLO11's Deployment Options
Let's walk through the different YOLO11 deployment options. For a detailed walkthrough of the export process, visit the Ultralytics documentation page on exporting.
PyTorch
PyTorch is an open-source machine learning library widely used for applications in deep learning and artificial intelligence. It provides a high level of flexibility and speed, which has made it a favorite among researchers and developers.
معايير الأداء: PyTorch معروف بسهولة استخدامه ومرونته ، مما قد يؤدي إلى مقايضة طفيفة في الأداء الخام عند مقارنته بالأطر الأخرى الأكثر تخصصا وتحسينا.
التوافق والتكامل: يوفر توافقا ممتازا مع مكتبات علوم البيانات والتعلم الآلي المختلفة في Python.
دعم المجتمع والنظام البيئي: أحد أكثر المجتمعات حيوية ، مع موارد واسعة للتعلم واستكشاف الأخطاء وإصلاحها.
دراسات الحالة: يشيع استخدامها في النماذج الأولية البحثية ، والعديد من النماذج المرجعية للأوراق الأكاديمية المنتشرة في PyTorch.
الصيانة والتحديثات: تحديثات منتظمة مع التطوير النشط ودعم الميزات الجديدة.
الاعتبارات الأمنية: تصحيحات منتظمة للمشكلات الأمنية، لكن الأمان يعتمد إلى حد كبير على البيئة العامة التي يتم نشرها فيها.
تسريع الأجهزة: يدعم CUDA لتسريع GPU ، وهو أمر ضروري لتسريع تدريب النموذج والاستدلال.
TorchScript
TorchScript يمتد PyTorchمن خلال السماح بتشغيل تصدير النماذج في بيئة وقت تشغيل C++. هذا يجعلها مناسبة لبيئات الإنتاج حيث Python غير متوفر.
معايير الأداء: يمكن أن تقدم أداء محسنا مقارنة بالأداء الأصلي PyTorch، خاصة في بيئات الإنتاج.
التوافق والتكامل: مصمم للانتقال السلس من PyTorch إلى بيئات إنتاج C ++ ، على الرغم من أن بعض الميزات المتقدمة قد لا تترجم بشكل مثالي.
دعم المجتمع والنظام البيئي: يستفيد من مجتمع PyTorch الكبير ولكن لديه نطاق أضيق من المطورين المتخصصين.
دراسات الحالة: تُستخدم على نطاق واسع في إعدادات الصناعة حيث يمثل الأداء الزائد Python عنق الزجاجة.
الصيانة والتحديثات: يتم صيانتها جنبا إلى جنب PyTorch مع تحديثات متسقة.
اعتبارات الأمان: يوفر أمانا محسنا من خلال تمكين تشغيل النماذج في البيئات غير الكاملة Python المنشات.
تسريع الأجهزة: يرث دعم CUDA الخاص بـ PyTorch ، مما يضمن كفاءة استخدام GPU .
ONNX
The Open Neural Network Exchange (ONNX) is a format that allows for model interoperability across different frameworks, which can be critical when deploying to various platforms.
معايير الأداء: ONNX قد تواجه النماذج أداء متغيرا اعتمادا على وقت التشغيل المحدد الذي يتم نشرها عليه.
التوافق والتكامل: قابلية عالية للتشغيل البيني عبر منصات وأجهزة متعددة نظرا لطبيعتها المحايدة لإطار العمل.
دعم المجتمع والنظام البيئي: مدعوم من قبل العديد من المنظمات ، مما يؤدي إلى نظام بيئي واسع ومجموعة متنوعة من الأدوات للتحسين.
دراسات الحالة: تستخدم بشكل متكرر لنقل النماذج بين أطر التعلم الآلي المختلفة ، مما يدل على مرونتها.
الصيانة والتحديثات: كمعيار مفتوح ، ONNX يتم تحديثه بانتظام لدعم العمليات والنماذج الجديدة.
اعتبارات الأمان: كما هو الحال مع أي أداة عبر الأنظمة الأساسية ، من الضروري ضمان الممارسات الآمنة في خط أنابيب التحويل والنشر.
تسريع الأجهزة: مع ONNX وقت التشغيل ، يمكن للنماذج الاستفادة من تحسينات الأجهزة المختلفة.
OpenVINO
OpenVINO هي مجموعة أدوات Intel مصممة لتسهيل نشر نماذج التعلّم العميق عبر أجهزة Intel ، مما يعزز الأداء والسرعة.
معايير الأداء: Intel تم تحسينه خصيصًا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الرسومات ووحدات VPU، مما يوفر تعزيزات كبيرة في الأداء على الأجهزة المتوافقة.
التوافق والتكامل: يعمل بشكل أفضل داخل النظام البيئي Intel ولكنه يدعم أيضًا مجموعة من المنصات الأخرى.
Community Support and Ecosystem: Backed by Intel, with a solid user base especially in the computer vision domain.
Case Studies: Often utilized in IoT and edge computing scenarios where Intel hardware is prevalent.
الصيانة والتحديثات: Intel تحديثات منتظمة على الموقع الإلكتروني OpenVINO لدعم أحدث نماذج التعلُّم العميق والأجهزة Intel .
اعتبارات الأمان: يوفر ميزات أمان قوية مناسبة للنشر في التطبيقات الحساسة.
تسريع الأجهزة: مصممة خصيصًا للتسريع على أجهزة Intel ، والاستفادة من مجموعات التعليمات المخصصة وميزات الأجهزة.
لمزيد من التفاصيل حول النشر باستخدام OpenVINO ، راجع وثائق التكامل Ultralytics التكامل: Intel OpenVINO التصدير.
TensorRT
TensorRT هو مُحسِّن استنتاجات تعلُّم عميق عالي الأداء ووقت تشغيل من NVIDIA ، وهو مثالي للتطبيقات التي تحتاج إلى السرعة والكفاءة.
معايير الأداء: يوفر أداءً من الدرجة الأولى على وحدات معالجة الرسومات NVIDIA مع دعم الاستدلال عالي السرعة.
التوافق والتكامل: الأنسب للأجهزة NVIDIA ، مع دعم محدود خارج هذه البيئة.
دعم المجتمع والنظام البيئي: شبكة دعم قوية من خلال منتديات ووثائق المطورين NVIDIA.
دراسات الحالة: معتمدة على نطاق واسع في الصناعات التي تتطلب الاستدلال في الوقت الفعلي على بيانات الفيديو والصور.
الصيانة والتحديثات: يحافظ موقع NVIDIA على TensorRT مع تحديثات متكررة لتحسين الأداء ودعم البنى الجديدة GPU .
الاعتبارات الأمنية: مثل العديد من منتجات NVIDIA ، فإنه يركز بشدة على الأمان، ولكن التفاصيل تعتمد على بيئة النشر.
تسريع الأجهزة: مصممة حصرياً لوحدات معالجة الرسومات NVIDIA ، مما يوفر تحسيناً وتسريعاً عميقاً.
CoreML
CoreML هو إطار عمل التعلم الآلي من Apple، وهو مُحسَّن للأداء على الجهاز في نظام Apple البيئي، بما في ذلك iOS و macOS و watchOS و tvOS.
معايير الأداء: محسن للأداء على الجهاز على أجهزة Apple بأقل استخدام للبطارية.
التوافق والتكامل: حصريًا لنظام Apple البيئي، مما يوفر سير عمل مبسط لتطبيقات iOS و macOS.
دعم المجتمع والنظام البيئي: دعم قوي من Apple ومجتمع مطورين مخصص، مع وثائق وأدوات شاملة.
دراسات الحالة: يشيع استخدامها في التطبيقات التي تتطلب إمكانات تعلم الآلة على الجهاز على منتجات Apple.
الصيانة والتحديثات: يتم تحديثها بانتظام من قبل Apple لدعم أحدث تطورات التعلم الآلي وأجهزة Apple.
Security Considerations: Benefits from Apple's focus on user privacy and data security.
تسريع الأجهزة: يستفيد استفادة كاملة من محرك Apple العصبي و GPU لمهام التعلم الآلي المتسارعة.
TF SavedModel
TF SavedModel هل TensorFlowلحفظ نماذج التعلم الآلي وتقديمها، وهو مناسب بشكل خاص لبيئات الخوادم القابلة للتطوير.
معايير الأداء: يوفر أداء قابلا للتطوير في بيئات الخادم ، خاصة عند استخدامه مع TensorFlow خدمه.
التوافق والتكامل: توافق واسع عبر TensorFlow، بما في ذلك عمليات نشر السحابة وخادم المؤسسة.
دعم المجتمع والنظام البيئي: دعم مجتمعي كبير بسبب TensorFlow، مع مجموعة واسعة من الأدوات للنشر والتحسين.
دراسات الحالة: تستخدم على نطاق واسع في بيئات الإنتاج لخدمة نماذج التعلم العميق على نطاق واسع.
الصيانة والتحديثات: بدعم من Google ومجتمع TensorFlow ، مما يضمن تحديثات منتظمة وميزات جديدة.
اعتبارات الأمان: النشر باستخدام TensorFlow تتضمن الخدمة ميزات أمان قوية للتطبيقات على مستوى المؤسسات.
تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة من خلال TensorFlowفي الخلفيات.
TF GraphDef
TF GraphDef هو TensorFlow التنسيق الذي يمثل النموذج كرسم بياني ، وهو أمر مفيد للبيئات التي تتطلب رسما بيانيا للحساب الثابت.
معايير الأداء: يوفر أداء مستقرا للرسوم البيانية الحسابية الثابتة ، مع التركيز على الاتساق والموثوقية.
التوافق والتكامل: يتكامل بسهولة داخل TensorFlowالبنية التحتية ولكن أقل مرونة مقارنة ب SavedModel.
دعم المجتمع والنظام البيئي: دعم جيد من TensorFlow، مع العديد من الموارد المتاحة لتحسين الرسوم البيانية الثابتة.
دراسات الحالة: مفيدة في السيناريوهات التي يكون فيها الرسم البياني الثابت ضروريا ، كما هو الحال في بعض الأنظمة المضمنة.
الصيانة والتحديثات: تحديثات منتظمة جنبا إلى جنب TensorFlowالتحديثات الأساسية.
اعتبارات الأمان: يضمن النشر الآمن مع TensorFlowالممارسات الأمنية المعمول بها.
تسريع الأجهزة: يمكن الاستفادة منها TensorFlowخيارات تسريع الأجهزة ، وإن لم تكن مرنة مثل SavedModel.
TF لايت
TF لايت هو TensorFlowللتعلم الآلي للأجهزة المحمولة والمدمجة، مما يوفر مكتبة خفيفة الوزن للاستدلال على الجهاز.
معايير الأداء: مصممة للسرعة والكفاءة على الأجهزة المحمولة والمدمجة.
التوافق والتكامل: يمكن استخدامه على مجموعة واسعة من الأجهزة نظرا لطبيعته خفيفة الوزن.
دعم المجتمع والنظام البيئي: مدعوم من Google ، ولديه مجتمع قوي وعدد متزايد من الموارد للمطورين.
دراسات الحالة: شائعة في تطبيقات الأجهزة المحمولة التي تتطلب الاستدلال على الجهاز بأقل قدر من المساحة.
الصيانة والتحديثات: يتم تحديثها بانتظام لتشمل أحدث الميزات والتحسينات للأجهزة المحمولة.
اعتبارات الأمان: يوفر بيئة آمنة لتشغيل النماذج على أجهزة المستخدم النهائي.
تسريع الأجهزة: يدعم مجموعة متنوعة من خيارات تسريع الأجهزة، بما في ذلك GPU و DSP.
TF حافة TPU
TF تم تصميم Edge TPU للحوسبة عالية السرعة والفعالية على أجهزة Edge TPU من Google ، وهي مثالية لأجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي.
معايير الأداء: تم تحسينها خصيصًا للحوسبة عالية السرعة والفعالية على أجهزة Google'Edge TPU .
التوافق والتكامل: يعمل حصريا مع TensorFlow نماذج لايت على Edge TPU الاجهزه.
دعم المجتمع والنظام البيئي: دعم متزايد مع الموارد المقدمة من Google ومطوري الطرف الثالث.
دراسات الحالة: تستخدم في أجهزة وتطبيقات إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي بزمن انتقال منخفض.
الصيانة والتحديثات: تم تحسينها باستمرار للاستفادة من إمكانات Edge الجديدة TPU إصدارات الأجهزة.
اعتبارات الأمان: يتكامل مع الأمان القوي لإنترنت الأشياء والأجهزة الطرفية Google.
تسريع الأجهزة: مصممة خصيصًا للاستفادة الكاملة من أجهزة Google Coral.
TF.شبيبه
TensorFlow.js (TF.js) هي مكتبة تجلب إمكانات التعلم الآلي مباشرة إلى المتصفح ، مما يوفر مجالا جديدا من الاحتمالات لمطوري الويب والمستخدمين على حد سواء. يسمح بدمج نماذج التعلم الآلي في تطبيقات الويب دون الحاجة إلى بنية تحتية خلفية.
معايير الأداء: تمكين التعلم الآلي مباشرة في المتصفح بأداء معقول ، اعتمادا على جهاز العميل.
التوافق والتكامل: توافق عالي مع تقنيات الويب ، مما يسمح بالاندماج السهل في تطبيقات الويب.
دعم المجتمع والنظام البيئي: دعم من مجتمع مطوري الويب Node.js ، مع مجموعة متنوعة من الأدوات لنشر نماذج ML في المتصفحات.
دراسات الحالة: مثالية لتطبيقات الويب التفاعلية التي تستفيد من التعلم الآلي من جانب العميل دون الحاجة إلى معالجة من جانب الخادم.
الصيانة والتحديثات: تتم صيانتها بواسطة TensorFlow فريق مع مساهمات من مجتمع المصادر المفتوحة.
اعتبارات الأمان: يعمل ضمن السياق الآمن للمتصفح ، باستخدام نموذج الأمان لمنصة الويب.
تسريع الأجهزة: يمكن تحسين الأداء باستخدام واجهات برمجة التطبيقات المستندة إلى الويب التي تصل إلى تسريع الأجهزة مثل WebGL.
PaddlePaddle
PaddlePaddle هو إطار عمل مفتوح المصدر للتعلم العميق تم تطويره بواسطة بايدو. إنه مصمم ليكون فعالا للباحثين وسهل الاستخدام للمطورين. تحظى بشعبية خاصة في الصين وتقدم دعما متخصصا لمعالجة اللغة الصينية.
معايير الأداء: يقدم أداء تنافسيا مع التركيز على سهولة الاستخدام وقابلية التوسع.
التوافق والتكامل: متكامل بشكل جيد في النظام البيئي لشركة Baidu ويدعم مجموعة واسعة من التطبيقات.
دعم المجتمع والنظام البيئي: في حين أن المجتمع أصغر على مستوى العالم ، إلا أنه ينمو بسرعة ، خاصة في الصين.
دراسات الحالة: يشيع استخدامها في الأسواق الصينية ومن قبل المطورين الذين يبحثون عن بدائل للأطر الرئيسية الأخرى.
الصيانة والتحديثات: يتم تحديثها بانتظام مع التركيز على خدمة تطبيقات وخدمات الذكاء الاصطناعي اللغة الصينية.
Security Considerations: Emphasizes data privacy and security, catering to Chinese data governance standards.
تسريع الأجهزة: يدعم تسريع الأجهزة المختلفة ، بما في ذلك رقائق Kunlun الخاصة ب Baidu.
NCNN
NCNN هو إطار استدلال شبكة عصبية عالي الأداء محسن لمنصة الهاتف المحمول. تتميز بطبيعتها خفيفة الوزن وكفاءتها ، مما يجعلها مناسبة بشكل خاص للأجهزة المحمولة والأجهزة المدمجة حيث تكون الموارد محدودة.
معايير الأداء: محسنة للغاية لمنصات الأجهزة المحمولة ، مما يوفر استدلالا فعالا على الأجهزة المستندة إلى ARM.
التوافق والتكامل: مناسب للتطبيقات على الهواتف المحمولة والأنظمة المدمجة مع بنية ARM.
دعم المجتمع والنظام البيئي: مدعوم من قبل مجتمع متخصص ولكنه نشط يركز على تطبيقات ML المحمولة والمضمنة.
دراسات حالة: مفضلة لتطبيقات الأجهزة المحمولة حيث تكون الكفاءة والسرعة أمرًا بالغ الأهمية على Android والأنظمة الأخرى القائمة على ARM.
الصيانة والتحديثات: تم تحسينه باستمرار للحفاظ على الأداء العالي على مجموعة من أجهزة ARM.
اعتبارات الأمان: يركز على التشغيل محليا على الجهاز ، والاستفادة من الأمان المتأصل في المعالجة على الجهاز.
تسريع الأجهزة: مصمم خصيصا لوحدات المعالجة المركزية ووحدات معالجة الرسومات ARM ، مع تحسينات محددة لهذه البنى.
MNN
MNN is a highly efficient and lightweight deep learning framework. It supports inference and training of deep learning models and has industry-leading performance for inference and training on-device. In addition, MNN is also used on embedded devices, such as IoT.
Comparative Analysis of YOLO11 Deployment Options
The following table provides a snapshot of the various deployment options available for YOLO11 models, helping you to assess which may best fit your project needs based on several critical criteria. For an in-depth look at each deployment option's format, please see the Ultralytics documentation page on export formats.
خيار النشر | معايير الأداء | التوافق والتكامل | دعم المجتمع والنظام البيئي | دراسات الحالة | الصيانة والتحديثات | الاعتبارات الأمنية | تسريع الأجهزة |
---|---|---|---|---|---|---|---|
PyTorch | مرونة جيدة قد يقايض الأداء الخام | ممتاز مع Python مكتبات | موارد واسعة ومجتمع | البحوث والنماذج الأولية | تطوير منتظم ونشط | تعتمد على بيئة النشر | CUDA دعم تسريع GPU |
TorchScript | أفضل للإنتاج من PyTorch | الانتقال السلس من PyTorch إلى C++ | متخصصة ولكن أضيق من PyTorch | الصناعة حيث Python هو عنق الزجاجة | تحديثات متسقة مع PyTorch | أمان محسن بدون كامل Python | يرث CUDA الدعم من PyTorch |
ONNX | متغير حسب وقت التشغيل | عالية عبر أطر عمل مختلفة | نظام بيئي واسع ، مدعوم من قبل العديد من المنظمات | المرونة عبر أطر عمل التعلم الآلي | تحديثات منتظمة للعمليات الجديدة | ضمان ممارسات التحويل والنشر الآمنة | تحسينات الأجهزة المختلفة |
OpenVINO | مُحسَّن للأجهزة Intel | الأفضل داخل النظام البيئي Intel | صلب في مجال رؤية الكمبيوتر | إنترنت الأشياء والحافة مع أجهزة Intel | تحديثات منتظمة للأجهزة Intel | ميزات قوية للتطبيقات الحساسة | مصممة خصيصاً للأجهزة Intel |
TensorRT | أعلى مستوى على NVIDIA GPUs | الأفضل للأجهزة NVIDIA | شبكة قوية من خلال NVIDIA | استدلال الفيديو والصور في الوقت الحقيقي | تحديثات متكررة لوحدات معالجة الرسومات الجديدة | التركيز على الأمن | مصممة لوحدات معالجة الرسومات NVIDIA |
CoreML | محسن لأجهزة Apple على الجهاز | حصريا لنظام Apple البيئي | دعم قوي من Apple والمطورين | التعلم الآلي على الجهاز على منتجات Apple | تحديثات Apple المنتظمة | التركيز على الخصوصية والأمان | محرك Apple العصبي و GPU |
TF SavedModel | قابلة للتطوير في بيئات الخادم | توافق واسع في TensorFlow نظام بيئي | دعم كبير بسبب TensorFlow شعبيه | تقديم النماذج على نطاق واسع | تحديثات منتظمة من قبل Google والمجتمع | ميزات قوية للمؤسسات | تسريع الأجهزة المختلفة |
TF GraphDef | مستقر للرسوم البيانية الحسابية الثابتة | يتكامل بشكل جيد مع TensorFlow بنية تحتية | موارد لتحسين الرسوم البيانية الثابتة | السيناريوهات التي تتطلب رسوما بيانية ثابتة | التحديثات جنبا إلى جنب TensorFlow لب | المنشاه TensorFlow الممارسات الأمنية | TensorFlow خيارات التسارع |
TF لايت | السرعة والكفاءة على الأجهزة المحمولة / المضمنة | مجموعة واسعة من دعم الأجهزة | مجتمع قوي، مدعوم من Google | تطبيقات الهاتف المحمول مع الحد الأدنى من البصمة | أحدث الميزات للجوال | بيئة آمنة على أجهزة المستخدم النهائي | GPU و DSP وغيرها |
TF حافة TPU | مُحسّن للأجهزة Google'Edge TPU | حصريا على إيدج TPU الاجهزه | النمو مع Google وموارد الطرف الثالث | أجهزة إنترنت الأشياء التي تتطلب معالجة في الوقت الفعلي | تحسينات ل Edge الجديد TPU الاجهزه | Googleأمان إنترنت الأشياء القوي | مصممة خصيصاً لـ Google المرجان |
TF.شبيبه | أداء معقول في المتصفح | عالية مع تقنيات الويب | دعم مطوري الويب Node.js | تطبيقات الويب التفاعلية | TensorFlow مساهمات الفريق والمجتمع | نموذج أمان منصة الويب | محسن مع WebGL وواجهات برمجة التطبيقات الأخرى |
PaddlePaddle | تنافسية وسهلة الاستخدام وقابلة للتطوير | نظام بايدو البيئي، دعم واسع للتطبيقات | تنمو بسرعة ، وخاصة في الصين | السوق الصينية ومعالجة اللغة | التركيز على تطبيقات الذكاء الاصطناعي الصينية | يؤكد على خصوصية البيانات وأمانها | بما في ذلك رقائق كونلون بايدو |
MNN | High-performance for mobile devices. | Mobile and embedded ARM systems and X86-64 CPU | Mobile/embedded ML community | Moblile systems efficiency | High performance maintenance on Mobile Devices | مزايا الأمان على الجهاز | تحسينات وحدات المعالجة المركزية ووحدات معالجة الرسومات ARM |
NCNN | محسن للأجهزة المحمولة المستندة إلى ARM | أنظمة ARM المتنقلة والمدمجة | مجتمع ML المحمول / المدمج المتخصص ولكن النشط | Android وكفاءة أنظمة ARM | صيانة عالية الأداء على ARM | مزايا الأمان على الجهاز | تحسينات وحدات المعالجة المركزية ووحدات معالجة الرسومات ARM |
يمنحك هذا التحليل المقارن نظرة عامة عالية المستوى. للنشر، من الضروري مراعاة المتطلبات والقيود المحددة لمشروعك، والرجوع إلى الوثائق والموارد التفصيلية المتاحة لكل خيار.
المجتمع والدعم
When you're getting started with YOLO11, having a helpful community and support can make a significant impact. Here's how to connect with others who share your interests and get the assistance you need.
الانخراط مع المجتمع الأوسع
GitHub Discussions: The YOLO11 repository on GitHub has a "Discussions" section where you can ask questions, report issues, and suggest improvements.
Ultralytics خادم الفتنة: Ultralytics يحتوي على خادم Discord حيث يمكنك التفاعل مع المستخدمين والمطورين الآخرين.
الوثائق والموارد الرسمية
- Ultralytics YOLO11 Docs: The official documentation provides a comprehensive overview of YOLO11, along with guides on installation, usage, and troubleshooting.
These resources will help you tackle challenges and stay updated on the latest trends and best practices in the YOLO11 community.
استنتاج
In this guide, we've explored the different deployment options for YOLO11. We've also discussed the important factors to consider when making your choice. These options allow you to customize your model for various environments and performance requirements, making it suitable for real-world applications.
Don't forget that the YOLO11 and Ultralytics community is a valuable source of help. Connect with other developers and experts to learn unique tips and solutions you might not find in regular documentation. Keep seeking knowledge, exploring new ideas, and sharing your experiences.
نشر سعيد!
الأسئلة المتداولة
What are the deployment options available for YOLO11 on different hardware platforms?
Ultralytics YOLO11 supports various deployment formats, each designed for specific environments and hardware platforms. Key formats include:
- PyTorch للبحث والنماذج الأولية، مع تكامل ممتاز Python .
- TorchScript لبيئات الإنتاج التي لا يتوفر فيها Python .
- ONNX للتوافق عبر المنصات وتسريع الأجهزة.
- OpenVINO لتحسين الأداء على أجهزة Intel .
- TensorRT للاستدلال عالي السرعة على وحدات معالجة الرسومات NVIDIA .
لكل تنسيق مزايا فريدة من نوعها. للاطلاع على شرح تفصيلي، راجع وثائق عملية التصدير.
How do I improve the inference speed of my YOLO11 model on an Intel CPU?
To enhance inference speed on Intel CPUs, you can deploy your YOLO11 model using Intel's OpenVINO toolkit. OpenVINO offers significant performance boosts by optimizing models to leverage Intel hardware efficiently.
- Convert your YOLO11 model to the OpenVINO format using the
model.export()
دالة. - اتبع دليل الإعداد التفصيلي في وثائق التصديرIntel OpenVINO التصدير.
لمزيد من المعلومات، اطلع على منشور المدونة.
Can I deploy YOLO11 models on mobile devices?
Yes, YOLO11 models can be deployed on mobile devices using TensorFlow Lite (TF Lite) for both Android and iOS platforms. TF Lite is designed for mobile and embedded devices, providing efficient on-device inference.
مثل
لمزيد من التفاصيل حول نشر النماذج على الهاتف المحمول، راجع دليل التكاملTF Lite الخاص بنا.
What factors should I consider when choosing a deployment format for my YOLO11 model?
When choosing a deployment format for YOLO11, consider the following factors:
- الأداء: توفر بعض التنسيقات مثل TensorRT سرعات استثنائية على وحدات معالجة الرسومات NVIDIA ، بينما تم تحسين OpenVINO للأجهزة Intel .
- التوافق: ONNX يوفر توافقاً واسعاً عبر مختلف المنصات.
- سهولة التكامل: تنسيقات مثل CoreML أو TF Lite مصممة خصيصًا لأنظمة بيئية محددة مثل iOS و Android ، على التوالي.
- Community Support: Formats like PyTorch and TensorFlow have extensive community resources and support.
للحصول على تحليل مقارن، راجع وثائق تنسيقات التصدير الخاصة بنا.
How can I deploy YOLO11 models in a web application?
To deploy YOLO11 models in a web application, you can use TensorFlow.js (TF.js), which allows for running machine learning models directly in the browser. This approach eliminates the need for backend infrastructure and provides real-time performance.
- Export the YOLO11 model to the TF.js format.
- ادمج النموذج المُصدَّر في تطبيق الويب الخاص بك.
للاطلاع على الإرشادات خطوة بخطوة، راجع دليلنا حول تكاملTensorFlow.js.