Comprendre les options de déploiement de YOLO11
Introduction
Vous avez parcouru un long chemin avec YOLO11. Vous avez collecté des données avec diligence, les avez méticuleusement annotées et avez consacré des heures à l'entraînement et à l'évaluation rigoureuse de votre modèle YOLO11 personnalisé. Il est maintenant temps de mettre votre modèle au service de votre application spécifique, de votre cas d'utilisation ou de votre projet. Mais une décision cruciale se présente à vous : comment exporter et déployer votre modèle de manière efficace ?
Ce guide vous présente les options de déploiement de YOLO11 et les facteurs essentiels à prendre en compte pour choisir la bonne option pour votre projet.
Comment choisir la bonne option de déploiement pour votre modèle YOLO11
Lorsqu'il est temps de déployer votre modèle YOLO11 , le choix d'un format d'exportation approprié est très important. Comme indiqué dans la documentationUltralytics YOLO11 Modes, la fonction model.export() permet de convertir votre modèle formé dans une variété de formats adaptés à divers environnements et exigences de performance.
Le format idéal dépend du contexte opérationnel prévu pour votre modèle, en tenant compte de la vitesse, des contraintes matérielles et de la facilité d'intégration. Dans la section suivante, nous allons examiner de plus près chaque option d'exportation et comprendre quand choisir chacune d'entre elles.
YOLO11Options de déploiement
Passons en revue les différentes options de déploiement de YOLO11 . Pour une description détaillée du processus d'exportation, visitez la page de documentationUltralytics sur l'exportation.
PyTorch
PyTorch est une bibliothèque d'apprentissage automatique open-source largement utilisée pour les applications d'apprentissage profond et d'intelligence artificielle. Elle offre un haut niveau de flexibilité et de rapidité, ce qui en a fait l'une des préférées des chercheurs et des développeurs.
-
Benchmarks de performance: PyTorch est connu pour sa facilité d'utilisation et sa flexibilité, ce qui peut entraîner un léger compromis en termes de performances brutes par rapport à d'autres frameworks plus spécialisés et optimisés.
-
Compatibilité et intégration: Offre une excellente compatibilité avec diverses bibliothèques de science des données et d'apprentissage automatique sur Python.
-
Soutien de la communauté et écosystème: L'une des communautés les plus dynamiques, avec des ressources étendues pour l'apprentissage et le dépannage.
-
Études de cas: Couramment utilisés dans les prototypes de recherche, de nombreux articles universitaires font référence à des modèles déployés sur le site PyTorch.
-
Maintenance et mises à jour: Mises à jour régulières avec développement actif et soutien pour les nouvelles fonctionnalités.
-
Considérations de sécurité: Des correctifs sont régulièrement apportés pour les problèmes de sécurité, mais la sécurité dépend largement de l'environnement global dans lequel il est déployé.
-
Accélération matérielle: Prise en charge de CUDA pour l'accélération de GPU , essentielle pour accélérer l'apprentissage et l'inférence des modèles.
TorchScript
TorchScript étend les capacités de PyTorch en permettant l'exportation de modèles à exécuter dans un environnement d'exécution C++. Il convient donc aux environnements de production où Python n'est pas disponible.
-
Critères de performance: Peut améliorer les performances par rapport à la version native de PyTorch, en particulier dans les environnements de production.
-
Compatibilité et intégration: Conçu pour une transition transparente entre PyTorch et les environnements de production C++, bien que certaines fonctionnalités avancées puissent ne pas être parfaitement transposées.
-
Soutien de la communauté et écosystème: Bénéficie de l'importante communauté de PyTorch mais dispose d'un éventail plus restreint de développeurs spécialisés.
-
Études de cas: Largement utilisé dans les environnements industriels où la surcharge de performance de Python est un goulot d'étranglement.
-
Maintenance et mises à jour: Maintenu sur PyTorch avec des mises à jour régulières.
-
Considérations relatives à la sécurité: Offre une sécurité accrue en permettant l'exécution de modèles dans des environnements sans installation complète de Python .
-
Accélération matérielle: Hérite de la prise en charge de CUDA par PyTorch, garantissant une utilisation efficace de GPU .
ONNX
L'Open Neural Network Exchange (ONNX) est un format qui permet l'interopérabilité des modèles entre différents cadres, ce qui peut s'avérer essentiel lors du déploiement sur diverses plateformes.
-
Critères de performance: les modèles ONNX peuvent présenter des performances variables en fonction de la durée d'exécution spécifique sur laquelle ils sont déployés.
-
Compatibilité et intégration: Grande interopérabilité entre plusieurs plateformes et matériels grâce à sa nature agnostique.
-
Soutien de la communauté et écosystème: Soutenu par de nombreuses organisations, ce qui donne lieu à un vaste écosystème et à une variété d'outils d'optimisation.
-
Études de cas: Fréquemment utilisé pour déplacer des modèles entre différents cadres d'apprentissage automatique, démontrant ainsi sa flexibilité.
-
Maintenance et mises à jour: En tant que norme ouverte, ONNX est régulièrement mis à jour pour prendre en charge de nouvelles opérations et de nouveaux modèles.
-
Considérations relatives à la sécurité: Comme pour tout outil multiplateforme, il est essentiel de garantir des pratiques sécurisées dans le pipeline de conversion et de déploiement.
-
Accélération matérielle: Avec ONNX Runtime, les modèles peuvent tirer parti de diverses optimisations matérielles.
OpenVINO
OpenVINO est une boîte à outils Intel conçue pour faciliter le déploiement de modèles d'apprentissage profond sur le matériel Intel , en améliorant les performances et la vitesse.
-
Repères de performance: Spécifiquement optimisé pour les CPU, GPU et VPU Intel , il offre des gains de performance significatifs sur le matériel compatible.
-
Compatibilité et intégration: Fonctionne le mieux au sein de l'écosystème Intel , mais prend également en charge une série d'autres plates-formes.
-
Soutien de la communauté et écosystème: Soutenu par Intel, avec une base d'utilisateurs solide, en particulier dans le domaine de la vision par ordinateur.
-
Études de cas: Souvent utilisé dans des scénarios IoT et d'informatique périphérique où le matériel Intel est répandu.
-
Maintenance et mises à jour: Intel met régulièrement à jour OpenVINO pour prendre en charge les derniers modèles d'apprentissage profond et le matériel Intel .
-
Considérations de sécurité: Les fonctions de sécurité sont robustes et adaptées au déploiement d'applications sensibles.
-
Accélération matérielle: Adapté à l'accélération sur le matériel Intel , en tirant parti de jeux d'instructions et de fonctions matérielles dédiés.
Pour plus de détails sur le déploiement à l'aide de OpenVINO, reportez-vous à la documentation sur l'intégration de Ultralytics : Intel OpenVINO Exporter.
TensorRT
TensorRT est un optimiseur d'inférence d'apprentissage profond haute performance et un moteur d'exécution de NVIDIA, idéal pour les applications nécessitant rapidité et efficacité.
-
Critères de performance: Offre des performances de premier plan sur les GPU NVIDIA avec prise en charge de l'inférence à grande vitesse.
-
Compatibilité et intégration: Convient le mieux au matériel NVIDIA , avec un soutien limité en dehors de cet environnement.
-
Soutien de la communauté et écosystème: Un réseau de soutien solide grâce aux forums de développeurs et à la documentation de NVIDIA.
-
Études de cas: Largement adopté dans les industries nécessitant une inférence en temps réel sur des données vidéo et des images.
-
Maintenance et mises à jour: NVIDIA maintient TensorRT avec des mises à jour fréquentes pour améliorer les performances et prendre en charge les nouvelles architectures GPU .
-
Considérations relatives à la sécurité: Comme de nombreux produits NVIDIA , il met fortement l'accent sur la sécurité, mais les spécificités dépendent de l'environnement de déploiement.
-
Accélération matérielle: Conçu exclusivement pour les GPU NVIDIA , il offre une optimisation et une accélération profondes.
CoreML
CoreML est le cadre d'apprentissage automatique d'Apple, optimisé pour les performances sur appareil dans l'écosystème Apple, notamment iOS, macOS, watchOS et tvOS.
-
Repères de performance: Optimisé pour des performances sur l'appareil sur le matériel Apple avec une utilisation minimale de la batterie.
-
Compatibilité et intégration: Exclusivement destiné à l'écosystème Apple, il offre un flux de travail rationalisé pour les applications iOS et macOS.
-
Soutien de la communauté et écosystème: Un soutien solide de la part d'Apple et une communauté de développeurs dévoués, avec une documentation et des outils complets.
-
Études de cas: Couramment utilisé dans les applications qui nécessitent des capacités d'apprentissage automatique sur les produits Apple.
-
Maintenance et mises à jour: Régulièrement mis à jour par Apple pour prendre en charge les dernières avancées en matière d'apprentissage automatique et le matériel Apple.
-
Considérations relatives à la sécurité: Bénéficie de l'attention portée par Apple à la confidentialité des utilisateurs et à la sécurité des données.
-
Accélération matérielle: Exploite pleinement le moteur neuronal d'Apple et GPU pour accélérer les tâches d'apprentissage automatique.
TF SavedModel
TF SavedModel est le format utilisé par TensorFlow pour enregistrer et servir les modèles d'apprentissage automatique, particulièrement adapté aux environnements de serveurs évolutifs.
-
Repères de performance: Offre des performances évolutives dans les environnements de serveurs, en particulier lorsqu'il est utilisé avec TensorFlow Serving.
-
Compatibilité et intégration: Large compatibilité dans l'écosystème de TensorFlow, y compris les déploiements de serveurs en nuage et d'entreprise.
-
Soutien de la communauté et écosystème: Large soutien de la communauté en raison de la popularité de TensorFlow, avec une vaste gamme d'outils pour le déploiement et l'optimisation.
-
Études de cas: Largement utilisé dans des environnements de production pour servir des modèles d'apprentissage profond à grande échelle.
-
Maintenance et mises à jour: Soutenu par Google et la communauté TensorFlow , il garantit des mises à jour régulières et de nouvelles fonctionnalités.
-
Considérations relatives à la sécurité: Le déploiement à l'aide de TensorFlow Serving comprend des fonctions de sécurité robustes pour les applications d'entreprise.
-
Accélération matérielle: Prise en charge de diverses accélérations matérielles par l'intermédiaire des backends de TensorFlow.
TF GraphDef
TF GraphDef est un format TensorFlow qui représente le modèle sous forme de graphe, ce qui est utile dans les environnements où un graphe de calcul statique est nécessaire.
-
Repères de performance: Fournit des performances stables pour les graphes de calcul statiques, en mettant l'accent sur la cohérence et la fiabilité.
-
Compatibilité et intégration: S'intègre facilement dans l'infrastructure de TensorFlow mais est moins flexible que SavedModel.
-
Soutien de la communauté et écosystème: Bon soutien de l'écosystème de TensorFlow, avec de nombreuses ressources disponibles pour l'optimisation des graphes statiques.
-
Études de cas: Utile dans les scénarios où un graphique statique est nécessaire, comme dans certains systèmes embarqués.
-
Maintenance et mises à jour: Mises à jour régulières en même temps que les mises à jour de base de TensorFlow.
-
Considérations de sécurité: Assure un déploiement sûr conformément aux pratiques de sécurité établies sur le site TensorFlow.
-
Accélération matérielle: Peut utiliser les options d'accélération matérielle de TensorFlow, bien qu'elles ne soient pas aussi flexibles que SavedModel.
TF Lite
TF Lite est la solution de TensorFlow pour l'apprentissage automatique sur les appareils mobiles et embarqués, fournissant une bibliothèque légère pour l'inférence sur l'appareil.
-
Repères de performance: Conçu pour la vitesse et l'efficacité sur les appareils mobiles et embarqués.
-
Compatibilité et intégration: Grâce à sa légèreté, il peut être utilisé sur un large éventail d'appareils.
-
Soutien de la communauté et écosystème: Soutenu par Google, il dispose d'une communauté solide et d'un nombre croissant de ressources pour les développeurs.
-
Études de cas: Populaire dans les applications mobiles qui nécessitent une inférence sur l'appareil avec un encombrement minimal.
-
Maintenance et mises à jour: Régulièrement mis à jour pour inclure les dernières fonctionnalités et optimisations pour les appareils mobiles.
-
Considérations relatives à la sécurité: Fournit un environnement sécurisé pour l'exécution des modèles sur les appareils des utilisateurs finaux.
-
Accélération matérielle: Prend en charge une variété d'options d'accélération matérielle, y compris GPU et DSP.
TF Bord TPU
TF Edge TPU est conçu pour un calcul rapide et efficace sur le matériel Edge TPU de Google, parfait pour les appareils IoT nécessitant un traitement en temps réel.
-
Repères de performance: Spécifiquement optimisé pour des calculs rapides et efficaces sur le matériel Google's Edge TPU .
-
Compatibilité et intégration: Fonctionne exclusivement avec les modèles TensorFlow Lite sur les appareils Edge TPU .
-
Soutien de la communauté et écosystème: Soutien croissant grâce aux ressources fournies par Google et les développeurs tiers.
-
Études de cas: Utilisé dans les appareils et applications IoT qui nécessitent un traitement en temps réel avec une faible latence.
-
Maintenance et mises à jour: Amélioration continue pour exploiter les capacités des nouvelles versions du matériel Edge TPU .
-
Considérations relatives à la sécurité: S'intègre à la sécurité robuste de Google pour les appareils IoT et de périphérie.
-
Accélération matérielle: Conçu sur mesure pour tirer pleinement parti des dispositifs Google Coral.
TF.js
TensorFlow.js (TF.js) est une bibliothèque qui apporte des capacités d'apprentissage automatique directement dans le navigateur, offrant ainsi un nouveau champ de possibilités aux développeurs web et aux utilisateurs. Elle permet l'intégration de modèles d'apprentissage automatique dans les applications web sans nécessiter d'infrastructure dorsale.
-
Repères de performance: Permet l'apprentissage automatique directement dans le navigateur avec des performances raisonnables, en fonction de l'appareil du client.
-
Compatibilité et intégration: Haute compatibilité avec les technologies web, permettant une intégration facile dans les applications web.
-
Soutien de la communauté et écosystème: Soutien d'une communauté de développeurs web et Node.js, avec une variété d'outils pour déployer des modèles ML dans les navigateurs.
-
Études de cas: Idéal pour les applications web interactives qui bénéficient de l'apprentissage automatique côté client sans nécessiter de traitement côté serveur.
-
Maintenance et mises à jour: Maintenu par l'équipe de TensorFlow avec des contributions de la communauté open-source.
-
Considérations de sécurité: S'exécute dans le contexte sécurisé du navigateur, en utilisant le modèle de sécurité de la plateforme web.
-
Accélération matérielle: Les performances peuvent être améliorées grâce à des API basées sur le web qui accèdent à l'accélération matérielle, comme WebGL.
PaddlePaddle
PaddlePaddle est un cadre d'apprentissage profond open-source développé par Baidu. Il est conçu pour être à la fois efficace pour les chercheurs et facile à utiliser pour les développeurs. Il est particulièrement populaire en Chine et offre un support spécialisé pour le traitement de la langue chinoise.
-
Critères de performance: Offre des performances compétitives en mettant l'accent sur la facilité d'utilisation et l'évolutivité.
-
Compatibilité et intégration: Bien intégré dans l'écosystème de Baidu, il prend en charge un large éventail d'applications.
-
Soutien de la communauté et écosystème: Bien que la communauté soit plus petite à l'échelle mondiale, elle se développe rapidement, en particulier en Chine.
-
Études de cas: Couramment utilisé sur les marchés chinois et par les développeurs à la recherche d'alternatives à d'autres frameworks majeurs.
-
Maintenance et mises à jour: Régulièrement mis à jour, l'accent est mis sur les applications et services d'IA en langue chinoise.
-
Considérations relatives à la sécurité: L'accent est mis sur la confidentialité et la sécurité des données, conformément aux normes chinoises en matière de gouvernance des données.
-
Accélération matérielle: Prise en charge de diverses accélérations matérielles, y compris les puces Kunlun de Baidu.
NCNN
NCNN est un cadre d'inférence de réseaux neuronaux de haute performance optimisé pour la plate-forme mobile. Il se distingue par sa légèreté et son efficacité, ce qui le rend particulièrement adapté aux appareils mobiles et embarqués dont les ressources sont limitées.
-
Critères de performance: hautement optimisé pour les plates-formes mobiles, il offre une inférence efficace sur les appareils basés sur la technologie ARM.
-
Compatibilité et intégration: Convient aux applications sur les téléphones mobiles et les systèmes embarqués avec architecture ARM.
-
Soutien de la communauté et écosystème: Soutenu par une communauté niche mais active, axée sur les applications ML mobiles et embarquées.
-
Études de cas: Privilégié pour les applications mobiles où l'efficacité et la vitesse sont essentielles sur Android et d'autres systèmes à base d'ARM.
-
Maintenance et mises à jour: Amélioration continue pour maintenir des performances élevées sur une gamme d'appareils ARM.
-
Considérations relatives à la sécurité: L'accent est mis sur l'exécution locale sur l'appareil, ce qui permet de tirer parti de la sécurité inhérente au traitement sur l'appareil.
-
Accélération matérielle: Adapté aux CPU ARM et aux GPU, avec des optimisations spécifiques pour ces architectures.
MNN
MNN est un cadre d'apprentissage profond très efficace et léger. Il prend en charge l'inférence et l'entraînement de modèles d'apprentissage profond et offre des performances de pointe pour l'inférence et l'entraînement sur l'appareil. En outre, MNN est également utilisé sur les appareils embarqués, tels que l'IoT.
Analyse comparative des options de déploiement du site YOLO11
Le tableau suivant donne un aperçu des différentes options de déploiement disponibles pour les modèles YOLO11 , vous aidant à évaluer celle qui correspond le mieux aux besoins de votre projet en fonction de plusieurs critères essentiels. Pour un examen approfondi du format de chaque option de déploiement, veuillez consulter la page de documentationUltralytics sur les formats d'exportation.
Option de déploiement | Critères de performance | Compatibilité et intégration | Soutien communautaire et écosystème | Études de cas | Maintenance et mises à jour | Considérations relatives à la sécurité | Accélération matérielle |
---|---|---|---|---|---|---|---|
PyTorch | Bonne flexibilité ; peut compromettre la performance brute | Excellent avec les bibliothèques Python | Ressources et communauté étendues | Recherche et prototypes | Développement régulier et actif | Dépend de l'environnement de déploiement | CUDA Prise en charge de l'accélération GPU |
TorchScript | Meilleur pour la production que PyTorch | Transition en douceur de PyTorch à C++ | Spécialisé mais plus étroit que PyTorch | Industrie où Python est un goulot d'étranglement | Mises à jour régulières avec PyTorch | Amélioration de la sécurité sans être complet Python | Hérite du support CUDA de PyTorch |
ONNX | Variable en fonction de la durée d'exécution | Un niveau élevé dans les différents cadres | Vaste écosystème, soutenu par de nombreuses organisations | Flexibilité des cadres de ML | Mises à jour régulières pour les nouvelles opérations | Garantir des pratiques de conversion et de déploiement sûres | Diverses optimisations matérielles |
OpenVINO | Optimisé pour le matériel Intel | Meilleur dans l'écosystème Intel | Solide expérience dans le domaine de la vision par ordinateur | IoT et périphérie avec le matériel Intel | Mises à jour régulières du matériel Intel | Caractéristiques robustes pour les applications sensibles | Conçu pour le matériel Intel |
TensorRT | Top-tier sur les GPU NVIDIA | Meilleur pour le matériel NVIDIA | Un réseau solide grâce à NVIDIA | Inférence vidéo et image en temps réel | Mises à jour fréquentes pour les nouveaux GPU | L'accent mis sur la sécurité | Conçu pour les GPU NVIDIA |
CoreML | Optimisé pour le matériel Apple embarqué | Exclusivité de l'écosystème Apple | Soutien important d'Apple et des développeurs | ML on-device sur les produits Apple | Mises à jour régulières d'Apple | Priorité à la protection de la vie privée et à la sécurité | Moteur neuronal Apple et GPU |
TF SavedModel | Évolutif dans les environnements de serveurs | Large compatibilité avec l'écosystème TensorFlow | Large soutien grâce à la popularité de TensorFlow | Servir des modèles à l'échelle | Mises à jour régulières par Google et la communauté | Fonctionnalités robustes pour les entreprises | Diverses accélérations matérielles |
TF GraphDef | Stable pour les graphes de calcul statiques | S'intègre bien à l'infrastructure TensorFlow | Ressources pour l'optimisation des graphes statiques | Scénarios nécessitant des graphes statiques | Mises à jour en même temps que TensorFlow core | Pratiques de sécurité établies TensorFlow | TensorFlow options d'accélération |
TF Lite | Vitesse et efficacité sur mobile/embedded | Large éventail de dispositifs pris en charge | Communauté solide, Google soutenue | Applications mobiles à encombrement minimal | Dernières fonctionnalités pour les mobiles | Environnement sécurisé sur les appareils des utilisateurs finaux | GPU et DSP, entre autres |
TF Bord TPU | Optimisé pour le matériel Google's Edge TPU | Exclusivité des appareils Edge TPU | Se développer avec Google et des ressources tierces | Dispositifs IoT nécessitant un traitement en temps réel | Améliorations pour le nouveau matériel Edge TPU | GoogleLa sécurité robuste de l'IoT | Conçu sur mesure pour Google Coral |
TF.js | Performances raisonnables dans le navigateur | Haut niveau en technologies web | Soutien aux développeurs Web et Node.js | Applications web interactives | TensorFlow contributions de l'équipe et de la communauté | Modèle de sécurité de la plate-forme web | Amélioré avec WebGL et d'autres API |
PaddlePaddle | Compétitif, facile à utiliser et évolutif | L'écosystème Baidu, un large support d'applications | Croissance rapide, surtout en Chine | Marché chinois et traitement des langues | Focus sur les applications chinoises de l'IA | L'accent est mis sur la confidentialité et la sécurité des données | Y compris les puces Kunlun de Baidu |
MNN | Haute performance pour les appareils mobiles. | Systèmes ARM mobiles et embarqués et X86-64 CPU | Communauté ML mobile/embarquée | Efficacité des systèmes mobiles | Maintenance performante sur les appareils mobiles | Avantages de la sécurité sur l'appareil | Optimisation des processeurs ARM et des GPU |
NCNN | Optimisé pour les appareils mobiles basés sur la technologie ARM | Systèmes ARM mobiles et embarqués | Niche mais communauté ML mobile/embedded active | Android et l'efficacité des systèmes ARM | Maintenance à haute performance sur ARM | Avantages de la sécurité sur l'appareil | Optimisation des processeurs ARM et des GPU |
Cette analyse comparative vous donne une vue d'ensemble. Pour le déploiement, il est essentiel de prendre en compte les exigences et les contraintes spécifiques de votre projet et de consulter la documentation détaillée et les ressources disponibles pour chaque option.
Communauté et soutien
Lorsque vous commencez à utiliser le site YOLO11, le fait de bénéficier d'une communauté et d'un soutien utiles peut avoir un impact significatif. Voici comment entrer en contact avec d'autres personnes qui partagent vos intérêts et obtenir l'aide dont vous avez besoin.
S'engager auprès de la communauté élargie
-
Discussions sur GitHub : Le dépôt YOLO11 sur GitHub possède une section "Discussions" où vous pouvez poser des questions, signaler des problèmes et suggérer des améliorations.
-
Ultralytics Serveur Discord : Ultralytics dispose d'un serveur Discord où vous pouvez interagir avec d'autres utilisateurs et développeurs.
Documentation et ressources officielles
- Ultralytics YOLO11 Docs : La documentation officielle fournit une vue d'ensemble de YOLO11, ainsi que des guides sur l'installation, l'utilisation et le dépannage.
Ces ressources vous aideront à relever les défis et à vous tenir au courant des dernières tendances et des meilleures pratiques au sein de la communauté YOLO11 .
Conclusion
Dans ce guide, nous avons exploré les différentes options de déploiement pour YOLO11. Nous avons également abordé les facteurs importants à prendre en compte lors de votre choix. Ces options vous permettent de personnaliser votre modèle en fonction de divers environnements et exigences de performance, ce qui le rend adapté aux applications du monde réel.
N'oubliez pas que la communauté YOLO11 et Ultralytics est une source d'aide précieuse. Entrez en contact avec d'autres développeurs et experts pour apprendre des astuces et des solutions uniques que vous ne trouverez peut-être pas dans la documentation habituelle. Continuez à rechercher des connaissances, à explorer de nouvelles idées et à partager vos expériences.
Bon déploiement !
FAQ
Quelles sont les options de déploiement disponibles pour YOLO11 sur différentes plates-formes matérielles ?
Ultralytics YOLO11 prend en charge différents formats de déploiement, chacun étant conçu pour des environnements et des plates-formes matérielles spécifiques. Les principaux formats sont les suivants
- PyTorch pour la recherche et le prototypage, avec une excellente intégration de Python .
- TorchScript pour les environnements de production oĂą Python n'est pas disponible.
- ONNX pour une compatibilité multiplateforme et une accélération matérielle.
- OpenVINO pour optimiser les performances sur le matériel Intel .
- TensorRT pour une inférence à grande vitesse sur les GPU NVIDIA .
Chaque format présente des avantages uniques. Pour une description détaillée, consultez notre documentation sur les processus d'exportation.
Comment améliorer la vitesse d'inférence de mon modèle YOLO11 sur Intel CPU ?
Pour améliorer la vitesse d'inférence sur les unités centrales Intel , vous pouvez déployer votre modèle YOLO11 à l'aide de la boîte à outils OpenVINO de Intel. OpenVINO offre des gains de performance significatifs en optimisant les modèles pour exploiter efficacement le matériel Intel .
- Convertissez votre modèle YOLO11 au format OpenVINO à l'aide de la fonction
model.export()
fonction. - Suivez le guide d'installation détaillé dans la documentationIntel OpenVINO Export.
Pour en savoir plus, consultez notre article de blog.
Puis-je déployer les modèles YOLO11 sur des appareils mobiles ?
Oui, les modèles YOLO11 peuvent être déployés sur des appareils mobiles à l'aide du logiciel TensorFlow Lite (TF Lite) pour les plateformes Android et iOS . TF Lite est conçu pour les appareils mobiles et embarqués et permet une inférence efficace sur l'appareil.
Exemple
Pour plus de détails sur le déploiement de modèles sur mobile, consultez notre guide d'intégrationTF Lite.
Quels sont les facteurs à prendre en compte lors du choix d'un format de déploiement pour mon modèle YOLO11 ?
Lorsque vous choisissez un format de déploiement pour YOLO11, tenez compte des facteurs suivants :
- Performance: Certains formats comme TensorRT offrent des vitesses exceptionnelles sur les GPU NVIDIA , tandis que OpenVINO est optimisé pour le matériel Intel .
- Compatibilité: ONNX offre une large compatibilité entre les différentes plateformes.
- Facilité d'intégration: Les formats tels que CoreML ou TF Lite sont adaptés à des écosystèmes spécifiques tels que iOS et Android, respectivement.
- Soutien communautaire: Les formats tels que PyTorch et TensorFlow disposent de ressources et d'un soutien communautaires Ă©tendus.
Pour une analyse comparative, consultez notre documentation sur les formats d'exportation.
Comment puis-je déployer les modèles YOLO11 dans une application web ?
Pour déployer les modèles YOLO11 dans une application web, vous pouvez utiliser TensorFlow.js (TF.js), qui permet d'exécuter des modèles d'apprentissage automatique directement dans le navigateur. Cette approche élimine le besoin d'une infrastructure dorsale et offre des performances en temps réel.
- Exporter le modèle YOLO11 vers le format TF.js.
- Intégrer le modèle exporté dans votre application web.
Pour obtenir des instructions étape par étape, consultez notre guide sur l'intégration deTensorFlow.js.