Passer au contenu

Analyse comparative des options de déploiement de YOLO11

Introduction

Vous avez parcouru un long chemin dans votre aventure avec YOLO11. Vous avez collecté des données avec diligence, vous les avez annotées méticuleusement et vous avez consacré du temps à l'entraînement et à l'évaluation rigoureuse de votre modèle YOLO11 personnalisé. Il est maintenant temps de mettre votre modèle au travail pour votre application, votre cas d'utilisation ou votre projet spécifique. Mais une décision cruciale se présente à vous : comment exporter et déployer votre modèle efficacement.



Regarder : Comment choisir le meilleur format de déploiement Ultralytics YOLO11 pour votre projet | TensorRT | OpenVINO 🚀

Ce guide vous présente les options de déploiement de YOLO11 et les facteurs essentiels à prendre en compte pour choisir l'option adaptée à votre projet.

Comment sélectionner la bonne option de déploiement pour votre modèle YOLO11

Lorsqu'il est temps de déployer votre modèle YOLO11 , le choix d'un format d'exportation approprié est très important. Comme indiqué dans le Ultralytics YOLO11 Documentation des modes, la fonction model.export() vous permet de convertir votre modèle formé dans une variété de formats adaptés à divers environnements et exigences de performance.

Le format idéal dépend du contexte opérationnel prévu de votre modèle, en équilibrant la vitesse, les contraintes matérielles et la facilité d'intégration. Dans la section suivante, nous examinerons de plus près chaque option d'exportation, en comprenant quand choisir chacune d'elles.

Options de déploiement de YOLO11

Passons en revue les différentes options de déploiement de YOLO11. Pour une présentation détaillée du processus d'exportation, consultez la page de documentation Ultralytics sur l'exportation.

PyTorch

PyTorch est une bibliothèque d'apprentissage automatique open source largement utilisée pour les applications dans le domaine de l'apprentissage profond et de l'intelligence artificielle. Elle offre un niveau élevé de flexibilité et de rapidité, ce qui en a fait un favori parmi les chercheurs et les développeurs.

  • Bancs d'essai de performance : PyTorch est connu pour sa facilité d'utilisation et sa flexibilité, ce qui peut entraîner un léger compromis en termes de performances brutes par rapport à d'autres frameworks plus spécialisés et optimisés.
  • Compatibilité et intégration : Offre une excellente compatibilité avec diverses bibliothèques de science des données et d’apprentissage automatique en python.
  • Support communautaire et écosystème : L'une des communautés les plus dynamiques, avec de nombreuses ressources pour l'apprentissage et le dépannage.
  • Études de cas : Couramment utilisé dans les prototypes de recherche, de nombreux articles universitaires font référence à des modèles déployés dans PyTorch.
  • Maintenance et mises à jour : mises à jour régulières avec développement actif et prise en charge de nouvelles fonctionnalités.
  • Considérations de sécurité : Des correctifs réguliers sont appliqués pour résoudre les problèmes de sécurité, mais la sécurité dépend en grande partie de l'environnement global dans lequel il est déployé.
  • Accélération matérielle : Prend en charge CUDA pour l’accélération GPU, essentiel pour accélérer l’entraînement et l’inférence du modèle.

TorchScript

TorchScript étend les capacités de PyTorch en permettant l'exportation de modèles pour être exécutés dans un environnement d'exécution C++. Cela le rend approprié pour les environnements de production où python n'est pas disponible.

  • Bancs d'essai de performance : Peut offrir des performances améliorées par rapport à PyTorch natif, en particulier dans les environnements de production.
  • Compatibilité et intégration : Conçu pour une transition transparente de PyTorch vers les environnements de production C++, bien que certaines fonctionnalités avancées puissent ne pas se traduire parfaitement.
  • Support communautaire et écosystème : Bénéficie de l'importante communauté PyTorch, mais a un champ d'application plus étroit de développeurs spécialisés.
  • Études de cas: Largement utilisé dans les environnements industriels où la surcharge de performance de python est un goulot d'étranglement.
  • Maintenance et mises à jour : Maintenu en parallèle avec PyTorch avec des mises à jour régulières.
  • Considérations de sécurité : Offre une sécurité améliorée en permettant l'exécution de modèles dans des environnements sans installations Python complètes.
  • Accélération matérielle : Hérite de la prise en charge de CUDA par PyTorch, assurant une utilisation efficace du GPU.

ONNX

L'Open Neural Network Exchange (ONNX) est un format qui permet l'interopérabilité des modèles entre différents frameworks, ce qui peut être essentiel lors du déploiement sur diverses plateformes.

  • Bancs d'essai de performance : Les modèles ONNX peuvent connaître des performances variables en fonction de l'environnement d'exécution spécifique sur lequel ils sont déployés.
  • Compatibilité et intégration : Interopérabilité élevée sur plusieurs plateformes et matériels grâce à sa nature agnostique du framework.
  • Support communautaire et écosystème : Pris en charge par de nombreuses organisations, ce qui conduit à un vaste écosystème et à une variété d'outils d'optimisation.
  • Études de cas : Fréquemment utilisé pour déplacer des modèles entre différents cadres d'apprentissage automatique, démontrant ainsi sa flexibilité.
  • Maintenance et mises à jour : En tant que standard ouvert, ONNX est régulièrement mis à jour pour prendre en charge les nouvelles opérations et les nouveaux modèles.
  • Considérations de sécurité : Comme pour tout outil multiplateforme, il est essentiel de garantir des pratiques sécurisées dans le pipeline de conversion et de déploiement.
  • Accélération matérielle : Avec ONNX Runtime, les modèles peuvent tirer parti de diverses optimisations matérielles.

OpenVINO

OpenVINO est une boîte à outils Intel conçue pour faciliter le déploiement de modèles d'apprentissage profond sur le matériel Intel, améliorant ainsi les performances et la vitesse.

  • Bancs d'essai de performance : Spécifiquement optimisé pour les CPU, GPU et VPU Intel, offrant des gains de performances significatifs sur le matériel compatible.
  • Compatibilité et intégration : Fonctionne mieux dans l’écosystème Intel, mais prend également en charge un éventail d’autres plateformes.
  • Support communautaire et écosystème : Soutenu par Intel, avec une base d'utilisateurs solide, en particulier dans le domaine de la vision par ordinateur.
  • Études de cas : Souvent utilisé dans l'IoT et les scénarios d'edge computing où le matériel Intel est répandu.
  • Maintenance et mises à jour : Intel met régulièrement à jour OpenVINO pour prendre en charge les derniers modèles de deep learning et le matériel Intel.
  • Considérations de sécurité : Fournit des fonctionnalités de sécurité robustes adaptées au déploiement dans des applications sensibles.
  • Accélération matérielle : Conçu pour l’accélération sur le matériel Intel, tirant parti des jeux d’instructions dédiés et des fonctionnalités matérielles.

Pour plus de détails sur le déploiement à l'aide d'OpenVINO, consultez la documentation d'intégration Ultralytics : Exportation Intel OpenVINO.

TensorRT

TensorRT est un optimiseur d'inférence d'apprentissage profond haute performance et un runtime de NVIDIA, idéal pour les applications nécessitant vitesse et efficacité.

  • Bancs d'essai de performance : Offre des performances de premier ordre sur les GPU NVIDIA avec prise en charge de l'inférence à haute vitesse.
  • Compatibilité et intégration : Mieux adapté au matériel NVIDIA, avec un support limité en dehors de cet environnement.
  • Support communautaire et écosystème : Solide réseau de support via les forums de développeurs et la documentation de NVIDIA.
  • Études de cas: Largement adopté dans les industries nécessitant une inférence en temps réel sur des données vidéo et image.
  • Maintenance et mises à jour : NVIDIA maintient TensorRT avec des mises à jour fréquentes pour améliorer les performances et prendre en charge les nouvelles architectures de GPU.
  • Considérations de sécurité : Comme de nombreux produits NVIDIA, l'accent est mis sur la sécurité, mais les détails dépendent de l'environnement de déploiement.
  • Accélération matérielle : Conçu exclusivement pour les GPU NVIDIA, offrant une optimisation et une accélération profondes.

Pour plus d'informations sur le déploiement de TensorRT, consultez le guide d'intégration de TensorRT.

CoreML

CoreML est le framework d'apprentissage automatique d'Apple, optimisé pour les performances sur l'appareil dans l'écosystème Apple, y compris iOS, macOS, watchOS et tvOS.

  • Bancs d'essai de performance : Optimisé pour les performances sur l'appareil sur le matériel Apple avec une consommation minimale de la batterie.
  • Compatibilité et intégration : Exclusivement pour l'écosystème d'Apple, offrant un flux de travail rationalisé pour les applications iOS et macOS.
  • Support communautaire et écosystème : Support important d'Apple et d'une communauté de développeurs dédiée, avec une documentation et des outils complets.
  • Études de cas : Couramment utilisé dans les applications qui nécessitent des capacités d'apprentissage automatique sur l'appareil sur les produits Apple.
  • Maintenance et mises à jour : régulièrement mis à jour par Apple pour prendre en charge les dernières avancées en matière d’apprentissage automatique et le matériel Apple.
  • Considérations de sécurité : Bénéficie de l'attention portée par Apple à la confidentialité des utilisateurs et à la sécurité des données.
  • Accélération matérielle : Tire pleinement parti du moteur neuronal et du GPU d’Apple pour les tâches d’apprentissage automatique accélérées.

TF SavedModel

TF SavedModel est le format de TensorFlow pour enregistrer et servir des modèles d'apprentissage automatique, particulièrement adapté aux environnements de serveur évolutifs.

  • Bancs d'essai de performance : Offre des performances évolutives dans les environnements de serveur, en particulier lorsqu'il est utilisé avec TensorFlow Serving.
  • Compatibilité et intégration : Large compatibilité dans l’ensemble de l’écosystème de TensorFlow, y compris les déploiements de serveurs cloud et d’entreprise.
  • Support communautaire et écosystème : Support communautaire important en raison de la popularité de TensorFlow, avec un vaste éventail d'outils pour le déploiement et l'optimisation.
  • Études de cas : Largement utilisé dans les environnements de production pour servir des modèles d'apprentissage profond à grande échelle.
  • Maintenance et mises à jour : pris en charge par Google et la communauté TensorFlow, garantissant des mises à jour régulières et de nouvelles fonctionnalités.
  • Considérations de sécurité : Le déploiement à l'aide de TensorFlow Serving comprend des fonctionnalités de sécurité robustes pour les applications d'entreprise.
  • Accélération matérielle : Prend en charge diverses accélérations matérielles via les backends de TensorFlow.

TF GraphDef

TF GraphDef est un format TensorFlow qui représente le modèle sous forme de graphe, ce qui est avantageux pour les environnements où un graphe de calcul statique est requis.

  • Bancs d'essai de performance : Fournit des performances stables pour les graphes de calcul statiques, en mettant l'accent sur la cohérence et la fiabilité.
  • Compatibilité et intégration : S'intègre facilement à l'infrastructure de TensorFlow, mais est moins flexible que SavedModel.
  • Support communautaire et écosystème : Bon support de l'écosystème de TensorFlow, avec de nombreuses ressources disponibles pour l'optimisation des graphes statiques.
  • Études de cas: Utile dans les scénarios où un graphe statique est nécessaire, comme dans certains systèmes embarqués.
  • Maintenance et mises à jour : mises à jour régulières parallèlement aux mises à jour principales de TensorFlow.
  • Considérations de sécurité : Assure un déploiement sûr grâce aux pratiques de sécurité établies de TensorFlow.
  • Accélération matérielle : Peut utiliser les options d’accélération matérielle de TensorFlow, bien que moins flexible que SavedModel.

Apprenez-en davantage sur TF GraphDef dans notre guide d'intégration TF GraphDef.

TF Lite

TF Lite est la solution de TensorFlow pour l'apprentissage automatique sur les appareils mobiles et embarqués, fournissant une bibliothèque légère pour l'inférence sur l'appareil.

  • Bancs d'essai de performance : Conçu pour la vitesse et l'efficacité sur les appareils mobiles et embarqués.
  • Compatibilité et intégration : Peut être utilisé sur une large gamme d'appareils en raison de sa nature légère.
  • Support communautaire et écosystème : Soutenu par Google, il dispose d’une communauté solide et d’un nombre croissant de ressources pour les développeurs.
  • Études de cas : Populaire dans les applications mobiles qui nécessitent une inférence sur l'appareil avec un encombrement minimal.
  • Maintenance et mises à jour : régulièrement mis à jour pour inclure les dernières fonctionnalités et optimisations pour les appareils mobiles.
  • Considérations de sécurité : Fournit un environnement sécurisé pour l'exécution de modèles sur les appareils des utilisateurs finaux.
  • Accélération matérielle : Prend en charge une variété d’options d’accélération matérielle, y compris GPU et DSP.

TF Edge TPU

TF Edge TPU est conçu pour un calcul haute vitesse et efficace sur le matériel Edge TPU de Google, parfait pour les appareils IoT nécessitant un traitement en temps réel.

  • Bancs d'essai de performance : Spécifiquement optimisé pour un calcul haute vitesse et efficace sur le matériel Edge TPU de Google.
  • Compatibilité et intégration : Fonctionne exclusivement avec les modèles TensorFlow Lite sur les appareils Edge TPU.
  • Support communautaire et écosystème : Support croissant avec des ressources fournies par Google et des développeurs tiers.
  • Études de cas : Utilisé dans les appareils IoT et les applications qui nécessitent un traitement en temps réel avec une faible latence.
  • Maintenance et mises à jour : Amélioré continuellement pour tirer parti des capacités des nouvelles versions de matériel Edge TPU.
  • Considérations de sécurité : S'intègre à la sécurité robuste de Google pour l'IoT et les appareils périphériques.
  • Accélération matérielle : Conçu sur mesure pour tirer pleinement parti des appareils Google Coral.

TF.js

TensorFlow.js (TF.js) est une bibliothèque qui apporte des capacités d'apprentissage automatique directement au navigateur, offrant ainsi un nouveau champ de possibilités aux développeurs web et aux utilisateurs. Il permet d'intégrer des modèles d'apprentissage automatique dans des applications web sans avoir besoin d'une infrastructure back-end.

  • Bancs d'essai de performance : Permet l'apprentissage automatique directement dans le navigateur avec des performances raisonnables, en fonction de l'appareil client.
  • Compatibilité et intégration : Haute compatibilité avec les technologies web, permettant une intégration facile dans les applications web.
  • Support communautaire et écosystème : Support d'une communauté de développeurs web et Node.js, avec une variété d'outils pour le déploiement de modèles de ML dans les navigateurs.
  • Études de cas : Idéal pour les applications web interactives qui bénéficient de l'apprentissage automatique côté client sans avoir besoin de traitement côté serveur.
  • Maintenance et mises à jour : maintenu par l’équipe TensorFlow avec les contributions de la communauté open source.
  • Considérations de sécurité : S'exécute dans le contexte sécurisé du navigateur, en utilisant le modèle de sécurité de la plateforme web.
  • Accélération matérielle : Les performances peuvent être améliorées avec des API Web qui accèdent à l’accélération matérielle comme WebGL.

PaddlePaddle

PaddlePaddle est un framework de deep learning open source développé par Baidu. Il est conçu pour être à la fois efficace pour les chercheurs et facile à utiliser pour les développeurs. Il est particulièrement populaire en Chine et offre un support spécialisé pour le traitement de la langue chinoise.

  • Bancs d'essai de performance : Offre des performances compétitives en mettant l'accent sur la facilité d'utilisation et l'évolutivité.
  • Compatibilité et intégration : Bien intégré dans l’écosystème de Baidu et prend en charge un large éventail d’applications.
  • Support communautaire et écosystème : Bien que la communauté soit plus petite à l'échelle mondiale, elle croît rapidement, en particulier en Chine.
  • Études de cas : Couramment utilisé sur les marchés chinois et par les développeurs à la recherche d'alternatives à d'autres cadres majeurs.
  • Maintenance et mises à jour : régulièrement mis à jour en mettant l’accent sur la diffusion d’applications et de services d’IA en langue chinoise.
  • Considérations de sécurité : Met l'accent sur la confidentialité des données et la sécurité, répondant aux normes chinoises de gouvernance des données.
  • Accélération matérielle : Prend en charge diverses accélérations matérielles, y compris les propres puces Kunlun de Baidu.

MNN

MNN est un framework d'apprentissage profond très efficace et léger. Il prend en charge l'inférence et l'entraînement des modèles d'apprentissage profond et offre des performances de pointe pour l'inférence et l'entraînement sur l'appareil. De plus, MNN est également utilisé sur des appareils embarqués, tels que l'IoT.

  • Bancs d'essai de performance : Haute performance pour les appareils mobiles avec une excellente optimisation pour les systèmes ARM.
  • Compatibilité et intégration : Fonctionne bien avec les systèmes ARM mobiles et embarqués et les architectures CPU X86-64.
  • Support communautaire et écosystème : Pris en charge par la communauté de l'apprentissage automatique mobile et embarqué.
  • Études de cas : Idéal pour les applications nécessitant des performances efficaces sur les systèmes mobiles.
  • Maintenance et mises à jour : Maintenance régulière pour garantir des performances élevées sur les appareils mobiles.
  • Considérations de sécurité : Offre des avantages de sécurité sur l'appareil en conservant les données en local.
  • Accélération matérielle : Optimisé pour les CPU et GPU ARM pour une efficacité maximale.

NCNN

NCNN est un framework d'inférence de réseau neuronal haute performance optimisé pour la plateforme mobile. Il se distingue par sa nature légère et son efficacité, ce qui le rend particulièrement adapté aux appareils mobiles et embarqués où les ressources sont limitées.

  • Bancs d'essai de performance : Hautement optimisé pour les plateformes mobiles, offrant une inférence efficace sur les appareils basés sur ARM.
  • Compatibilité et intégration : Convient aux applications sur les téléphones mobiles et les systèmes embarqués avec architecture ARM.
  • Support communautaire et écosystème : Soutenu par une communauté de niche mais active, axée sur les applications ML mobiles et embarquées.
  • Études de cas: Favorisé pour les applications mobiles où l'efficacité et la rapidité sont essentielles sur Android et d'autres systèmes basés sur ARM.
  • Maintenance et mises à jour : Amélioré continuellement pour maintenir des performances élevées sur une gamme d'appareils ARM.
  • Considérations de sécurité : Se concentre sur l'exécution locale sur l'appareil, tirant parti de la sécurité inhérente au traitement sur l'appareil.
  • Accélération matérielle : Conçu pour les CPU et GPU ARM, avec des optimisations spécifiques pour ces architectures.

Analyse comparative des options de déploiement de YOLO11

Le tableau suivant donne un aperçu des différentes options de déploiement disponibles pour les modèles YOLO11, vous aidant à évaluer celles qui conviennent le mieux aux besoins de votre projet en fonction de plusieurs critères essentiels. Pour un aperçu approfondi du format de chaque option de déploiement, veuillez consulter la page de documentation Ultralytics sur les formats d'exportation.

Option de déploiementBancs d'essai de performanceCompatibilité et intégrationAssistance communautaire et écosystèmeÉtudes de casMaintenance et mises à jourConsidérations de sécuritéAccélération matérielle
PyTorchBonne flexibilité ; peut compromettre les performances brutesExcellent avec les bibliothèques PythonRessources complètes et communautéRecherche et prototypesDéveloppement régulier et actifDépend de l'environnement de déploiementPrise en charge de CUDA pour l'accélération GPU
TorchScriptMeilleur pour la production que PyTorchTransition en douceur de PyTorch vers C++Spécialisé mais plus étroit que PyTorchIndustrie où Python est un goulot d'étranglementMises à jour cohérentes avec PyTorchSécurité améliorée sans Python completHérite du support CUDA de PyTorch
ONNXVariable en fonction de l'exécutionÉlevé dans différents frameworksVaste écosystème, soutenu par de nombreuses organisationsFlexibilité entre les frameworks de MLMises à jour régulières pour les nouvelles opérationsAssurez-vous de pratiques de conversion et de déploiement sécurisées.Diverses optimisations matérielles
OpenVINOOptimisé pour le matériel IntelIdéal au sein de l'écosystème IntelSolide dans le domaine de la vision par ordinateurIoT et périphérie avec le matériel IntelMises à jour régulières pour le matériel IntelFonctionnalités robustes pour les applications sensiblesConçu pour le matériel Intel
TensorRTDe premier ordre sur les GPU NVIDIAIdéal pour le matériel NVIDIARéseau solide via NVIDIAInférence d'images et de vidéos en temps réelMises à jour fréquentes pour les nouveaux GPUAccent mis sur la sécuritéConçu pour les GPU NVIDIA
CoreMLOptimisé pour le matériel Apple sur l'appareilExclusif à l'écosystème AppleForte assistance d'Apple et des développeursML sur l'appareil sur les produits AppleMises à jour régulières d'AppleConcentration sur la confidentialité et la sécuritéMoteur neuronal et GPU d'Apple
TF SavedModelÉvolutivité dans les environnements serveurLarge compatibilité dans l'écosystème TensorFlowSupport important en raison de la popularité de TensorFlowServir des modèles à l'échelleMises à jour régulières par Google et la communautéFonctionnalités robustes pour l'entrepriseDiverses accélérations matérielles
TF GraphDefStable pour les graphes de calcul statiquesS'intègre bien avec l'infrastructure TensorFlowRessources pour l'optimisation des graphes statiquesScénarios nécessitant des graphiques statiquesMises à jour en parallèle du cœur de TensorFlowPratiques de sécurité TensorFlow établiesOptions d'accélération TensorFlow
TF LiteVitesse et efficacité sur mobile/embarquéLarge gamme de prise en charge des appareilsCommunauté robuste, soutenue par GoogleApplications mobiles avec un encombrement minimalDernières fonctionnalités pour mobileEnvironnement sécurisé sur les appareils de l'utilisateur finalGPU et DSP entre autres
TF Edge TPUOptimisé pour le matériel Edge TPU de GoogleExclusif aux appareils Edge TPUDéveloppement avec Google et des ressources tiercesAppareils IoT nécessitant un traitement en temps réelAméliorations pour le nouveau matériel Edge TPULa sécurité IoT robuste de GoogleConçu sur mesure pour Google Coral
TF.jsPerformances raisonnables dans le navigateurÉlevé avec les technologies webPrise en charge des développeurs Web et Node.jsApplications web interactivesContributions de l'équipe TensorFlow et de la communautéModèle de sécurité de la plateforme WebAmélioré avec WebGL et d'autres API
PaddlePaddleCompétitif, facile à utiliser et évolutifÉcosystème Baidu, large prise en charge des applicationsCroissance rapide, surtout en ChineMarché chinois et traitement du langageConcentration sur les applications d'IA chinoisesMet l'accent sur la confidentialité et la sécurité des donnéesIncluant les puces Kunlun de Baidu
MNNHaute performance pour les appareils mobiles.Systèmes ARM mobiles et embarqués et CPU X86-64Communauté ML mobile/embarquéeEfficacité des systèmes mobilesMaintenance haute performance sur les appareils mobilesAvantages de la sécurité sur l'appareilOptimisations des CPU et GPU ARM
NCNNOptimisé pour les appareils mobiles basés sur ARMSystèmes ARM mobiles et embarquésCommunauté ML mobile/embarquée de niche mais activeEfficacité des systèmes Android et ARMMaintenance haute performance sur ARMAvantages de la sécurité sur l'appareilOptimisations des CPU et GPU ARM

Cette analyse comparative vous donne une vue d'ensemble de haut niveau. Pour le déploiement, il est essentiel de tenir compte des exigences et des contraintes spécifiques de votre projet, et de consulter la documentation détaillée et les ressources disponibles pour chaque option.

Communauté et assistance

Lorsque vous débutez avec YOLO11, le fait de disposer d'une communauté et d'un soutien utiles peut avoir un impact significatif. Voici comment entrer en contact avec d'autres personnes qui partagent vos intérêts et obtenir l'aide dont vous avez besoin.

Interagissez avec la communauté au sens large

  • Discussions GitHub : Le référentiel YOLO11 sur GitHub a une section "Discussions" où vous pouvez poser des questions, signaler des problèmes et suggérer des améliorations.
  • Serveur Discord Ultralytics : Ultralytics possède un serveur Discord où vous pouvez interagir avec d’autres utilisateurs et développeurs.

Documentation et ressources officielles

  • Documentation Ultralytics YOLO11 : La documentation officielle offre une vue d'ensemble complète de YOLO11, ainsi que des guides sur l'installation, l'utilisation et le dépannage.

Ces ressources vous aideront à relever les défis et à rester informé des dernières tendances et des meilleures pratiques de la communauté YOLO11.

Conclusion

Dans ce guide, nous avons exploré les différentes options de déploiement pour YOLO11. Nous avons également discuté des facteurs importants à prendre en compte lors de votre choix. Ces options vous permettent de personnaliser votre modèle pour différents environnements et exigences de performance, le rendant ainsi adapté aux applications du monde réel.

N'oubliez pas que la communauté YOLO11 et Ultralytics est une source d'aide précieuse. Connectez-vous avec d'autres développeurs et experts pour découvrir des astuces et des solutions uniques que vous ne trouverez peut-être pas dans la documentation habituelle. Continuez à chercher des connaissances, à explorer de nouvelles idées et à partager vos expériences.

Bon déploiement !

FAQ

Quelles sont les options de déploiement disponibles pour YOLO11 sur différentes plateformes matérielles ?

Ultralytics YOLO11 prend en charge divers formats de déploiement, chacun étant conçu pour des environnements et des plateformes matérielles spécifiques. Les principaux formats incluent :

  • PyTorch pour la recherche et le prototypage, avec une excellente intégration python.
  • TorchScript pour les environnements de production où python n’est pas disponible.
  • ONNX pour la compatibilité multiplateforme et l'accélération matérielle.
  • OpenVINO pour des performances optimisées sur le matériel Intel.
  • TensorRT pour une inférence à haute vitesse sur les GPU NVIDIA.

Chaque format a des avantages uniques. Pour une présentation détaillée, consultez notre documentation sur le processus d'exportation.

Comment améliorer la vitesse d’inférence de mon modèle YOLO11 sur un CPU Intel ?

Pour améliorer la vitesse d’inférence sur les CPU Intel, vous pouvez déployer votre modèle YOLO11 à l’aide du toolkit OpenVINO d’Intel. OpenVINO offre des gains de performance significatifs en optimisant les modèles pour exploiter efficacement le matériel Intel.

  1. Convertissez votre modèle YOLO11 au format OpenVINO en utilisant le model.export() fonction.
  2. Suivez le guide de configuration détaillé dans la documentation d'exportation Intel OpenVINO.

Pour plus d'informations, consultez notre article de blog.

Puis-je déployer des modèles YOLO11 sur des appareils mobiles ?

Oui, les modèles YOLO11 peuvent être déployés sur des appareils mobiles en utilisant TensorFlow Lite (TF Lite) pour les plateformes Android et iOS. TF Lite est conçu pour les appareils mobiles et embarqués, offrant une inférence efficace sur l'appareil.

Exemple

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Pour plus de détails sur le déploiement de modèles sur mobile, consultez notre guide d'intégration TF Lite.

Quels facteurs dois-je prendre en compte lors du choix d’un format de déploiement pour mon modèle YOLO11 ?

Lors du choix d'un format de déploiement pour YOLO11, tenez compte des facteurs suivants :

  • Performance : Certains formats comme TensorRT offrent des vitesses exceptionnelles sur les GPU NVIDIA, tandis qu'OpenVINO est optimisé pour le matériel Intel.
  • Compatibilité : ONNX offre une large compatibilité sur différentes plateformes.
  • Facilité d'intégration : Les formats tels que CoreML ou TF Lite sont adaptés à des écosystèmes spécifiques comme iOS et Android, respectivement.
  • Support communautaire : Les formats tels que PyTorch et TensorFlow disposent de nombreuses ressources communautaires et d'un support étendu.

Pour une analyse comparative, consultez notre documentation sur les formats d'exportation.

Comment puis-je déployer des modèles YOLO11 dans une application Web ?

Pour déployer des modèles YOLO11 dans une application Web, vous pouvez utiliser TensorFlow.js (TF.js), qui permet d’exécuter des modèles d'apprentissage automatique directement dans le navigateur. Cette approche élimine le besoin d’une infrastructure dorsale et offre des performances en temps réel.

  1. Exporter le modèle YOLO11 au format TF.js.
  2. Intégrez le modèle exporté dans votre application web.

Pour obtenir des instructions étape par étape, consultez notre guide sur l'intégration de TensorFlow.js.



📅C réé il y a 2 ans ✏️ Mis à jour il y a 5 jours
glenn-jocherUltralyticsAssistantRizwanMunawarleonnilwangzhaodeMatthewNoyceabirami-vina

Commentaires