Analyse comparative des options de déploiement de YOLO11
Introduction
Vous avez parcouru un long chemin dans votre aventure avec YOLO11. Vous avez collecté des données avec diligence, vous les avez annotées méticuleusement et vous avez consacré du temps à l'entraînement et à l'évaluation rigoureuse de votre modèle YOLO11 personnalisé. Il est maintenant temps de mettre votre modèle au travail pour votre application, votre cas d'utilisation ou votre projet spécifique. Mais une décision cruciale se présente à vous : comment exporter et déployer votre modèle efficacement.
Regarder : Comment choisir le meilleur format de déploiement Ultralytics YOLO11 pour votre projet | TensorRT | OpenVINO 🚀
Ce guide vous présente les options de déploiement de YOLO11 et les facteurs essentiels à prendre en compte pour choisir l'option adaptée à votre projet.
Comment sélectionner la bonne option de déploiement pour votre modèle YOLO11
Lorsqu'il est temps de déployer votre modèle YOLO11, il est très important de sélectionner un format d'exportation approprié. Comme indiqué dans la documentation des modes Ultralytics YOLO11, la fonction model.export() permet de convertir votre modèle entraîné dans une variété de formats adaptés à divers environnements et exigences de performance.
Le format idéal dépend du contexte opérationnel prévu de votre modèle, en équilibrant la vitesse, les contraintes matérielles et la facilité d'intégration. Dans la section suivante, nous examinerons de plus près chaque option d'exportation, en comprenant quand choisir chacune d'elles.
Options de déploiement de YOLO11
Passons en revue les différentes options de déploiement de YOLO11. Pour une présentation détaillée du processus d'exportation, consultez la page de documentation Ultralytics sur l'exportation.
PyTorch
PyTorch est une bibliothèque d'apprentissage automatique open source largement utilisée pour les applications dans le domaine de l'apprentissage profond et de l'intelligence artificielle. Elle offre un niveau élevé de flexibilité et de rapidité, ce qui en a fait un favori parmi les chercheurs et les développeurs.
- Bancs d'essai de performance : PyTorch est connu pour sa facilité d'utilisation et sa flexibilité, ce qui peut entraîner un léger compromis en termes de performances brutes par rapport à d'autres frameworks plus spécialisés et optimisés.
- Compatibilité et intégration : Offre une excellente compatibilité avec diverses bibliothèques de science des données et d’apprentissage automatique en python.
- Support communautaire et écosystème : L'une des communautés les plus dynamiques, avec de nombreuses ressources pour l'apprentissage et le dépannage.
- Études de cas : Couramment utilisé dans les prototypes de recherche, de nombreux articles universitaires font référence à des modèles déployés dans PyTorch.
- Maintenance et mises à jour : mises à jour régulières avec développement actif et prise en charge de nouvelles fonctionnalités.
- Considérations de sécurité : Des correctifs réguliers sont appliqués pour résoudre les problèmes de sécurité, mais la sécurité dépend en grande partie de l'environnement global dans lequel il est déployé.
- Accélération matérielle : Prend en charge CUDA pour l’accélération GPU, essentiel pour accélérer l’entraînement et l’inférence du modèle.
TorchScript
TorchScript étend les capacités de PyTorch en permettant l'exportation de modèles pour être exécutés dans un environnement d'exécution C++. Cela le rend approprié pour les environnements de production où python n'est pas disponible.
- Bancs d'essai de performance : Peut offrir des performances améliorées par rapport à PyTorch natif, en particulier dans les environnements de production.
- Compatibilité et intégration : Conçu pour une transition transparente de PyTorch vers les environnements de production C++, bien que certaines fonctionnalités avancées puissent ne pas se traduire parfaitement.
- Support communautaire et écosystème : Bénéficie de l'importante communauté PyTorch, mais a un champ d'application plus étroit de développeurs spécialisés.
- Études de cas: Largement utilisé dans les environnements industriels où la surcharge de performance de python est un goulot d'étranglement.
- Maintenance et mises à jour : Maintenu en parallèle avec PyTorch avec des mises à jour régulières.
- Considérations de sécurité : Offre une sécurité améliorée en permettant l'exécution de modèles dans des environnements sans installations Python complètes.
- Accélération matérielle : Hérite de la prise en charge de CUDA par PyTorch, assurant une utilisation efficace du GPU.
ONNX
L'Open Neural Network Exchange (ONNX) est un format qui permet l'interopérabilité des modèles entre différents frameworks, ce qui peut être essentiel lors du déploiement sur diverses plateformes.
- Bancs d'essai de performance : Les modèles ONNX peuvent connaître des performances variables en fonction de l'environnement d'exécution spécifique sur lequel ils sont déployés.
- Compatibilité et intégration : Interopérabilité élevée sur plusieurs plateformes et matériels grâce à sa nature agnostique du framework.
- Support communautaire et écosystème : Pris en charge par de nombreuses organisations, ce qui conduit à un vaste écosystème et à une variété d'outils d'optimisation.
- Études de cas : Fréquemment utilisé pour déplacer des modèles entre différents cadres d'apprentissage automatique, démontrant ainsi sa flexibilité.
- Maintenance et mises à jour : En tant que standard ouvert, ONNX est régulièrement mis à jour pour prendre en charge les nouvelles opérations et les nouveaux modèles.
- Considérations de sécurité : Comme pour tout outil multiplateforme, il est essentiel de garantir des pratiques sécurisées dans le pipeline de conversion et de déploiement.
- Accélération matérielle : Avec ONNX Runtime, les modèles peuvent tirer parti de diverses optimisations matérielles.
OpenVINO
OpenVINO est une boîte à outils Intel conçue pour faciliter le déploiement de modèles d'apprentissage profond sur le matériel Intel, améliorant ainsi les performances et la vitesse.
- Bancs d'essai de performance : Spécifiquement optimisé pour les CPU, GPU et VPU Intel, offrant des gains de performances significatifs sur le matériel compatible.
- Compatibilité et intégration : Fonctionne mieux dans l’écosystème Intel, mais prend également en charge un éventail d’autres plateformes.
- Support communautaire et écosystème : Soutenu par Intel, avec une base d'utilisateurs solide, en particulier dans le domaine de la vision par ordinateur.
- Études de cas : Souvent utilisé dans l'IoT et les scénarios d'edge computing où le matériel Intel est répandu.
- Maintenance et mises à jour : Intel met régulièrement à jour OpenVINO pour prendre en charge les derniers modèles de deep learning et le matériel Intel.
- Considérations de sécurité : Fournit des fonctionnalités de sécurité robustes adaptées au déploiement dans des applications sensibles.
- Accélération matérielle : Conçu pour l’accélération sur le matériel Intel, tirant parti des jeux d’instructions dédiés et des fonctionnalités matérielles.
Pour plus de détails sur le déploiement à l'aide d'OpenVINO, consultez la documentation d'intégration Ultralytics : Exportation Intel OpenVINO.
TensorRT
TensorRT est un optimiseur d'inférence d'apprentissage profond haute performance et un runtime de NVIDIA, idéal pour les applications nécessitant vitesse et efficacité.
- Bancs d'essai de performance : Offre des performances de premier ordre sur les GPU NVIDIA avec prise en charge de l'inférence à haute vitesse.
- Compatibilité et intégration : Mieux adapté au matériel NVIDIA, avec un support limité en dehors de cet environnement.
- Support communautaire et écosystème : Solide réseau de support via les forums de développeurs et la documentation de NVIDIA.
- Études de cas: Largement adopté dans les industries nécessitant une inférence en temps réel sur des données vidéo et image.
- Maintenance et mises à jour : NVIDIA maintient TensorRT avec des mises à jour fréquentes pour améliorer les performances et prendre en charge les nouvelles architectures de GPU.
- Considérations de sécurité : Comme de nombreux produits NVIDIA, l'accent est mis sur la sécurité, mais les détails dépendent de l'environnement de déploiement.
- Accélération matérielle : Conçu exclusivement pour les GPU NVIDIA, offrant une optimisation et une accélération profondes.
Pour plus d'informations sur le déploiement de TensorRT, consultez le guide d'intégration de TensorRT.
CoreML
CoreML est le framework d'apprentissage automatique d'Apple, optimisé pour les performances sur l'appareil dans l'écosystème Apple, y compris iOS, macOS, watchOS et tvOS.
- Bancs d'essai de performance : Optimisé pour les performances sur l'appareil sur le matériel Apple avec une consommation minimale de la batterie.
- Compatibilité et intégration : Exclusivement pour l'écosystème d'Apple, offrant un flux de travail rationalisé pour les applications iOS et macOS.
- Support communautaire et écosystème : Support important d'Apple et d'une communauté de développeurs dédiée, avec une documentation et des outils complets.
- Études de cas : Couramment utilisé dans les applications qui nécessitent des capacités d'apprentissage automatique sur l'appareil sur les produits Apple.
- Maintenance et mises à jour : régulièrement mis à jour par Apple pour prendre en charge les dernières avancées en matière d’apprentissage automatique et le matériel Apple.
- Considérations de sécurité : Bénéficie de l'attention portée par Apple à la confidentialité des utilisateurs et à la sécurité des données.
- Accélération matérielle : Tire pleinement parti du moteur neuronal et du GPU d’Apple pour les tâches d’apprentissage automatique accélérées.
TF SavedModel
TF SavedModel est le format de TensorFlow pour enregistrer et servir des modèles d'apprentissage automatique, particulièrement adapté aux environnements de serveur évolutifs.
- Bancs d'essai de performance : Offre des performances évolutives dans les environnements de serveur, en particulier lorsqu'il est utilisé avec TensorFlow Serving.
- Compatibilité et intégration : Large compatibilité dans l’ensemble de l’écosystème de TensorFlow, y compris les déploiements de serveurs cloud et d’entreprise.
- Support communautaire et écosystème : Support communautaire important en raison de la popularité de TensorFlow, avec un vaste éventail d'outils pour le déploiement et l'optimisation.
- Études de cas : Largement utilisé dans les environnements de production pour servir des modèles d'apprentissage profond à grande échelle.
- Maintenance et mises à jour : pris en charge par Google et la communauté TensorFlow, garantissant des mises à jour régulières et de nouvelles fonctionnalités.
- Considérations de sécurité : Le déploiement à l'aide de TensorFlow Serving comprend des fonctionnalités de sécurité robustes pour les applications d'entreprise.
- Accélération matérielle : Prend en charge diverses accélérations matérielles via les backends de TensorFlow.
TF GraphDef
TF GraphDef est un format TensorFlow qui représente le modèle sous forme de graphe, ce qui est avantageux pour les environnements où un graphe de calcul statique est requis.
- Bancs d'essai de performance : Fournit des performances stables pour les graphes de calcul statiques, en mettant l'accent sur la cohérence et la fiabilité.
- Compatibilité et intégration : S'intègre facilement à l'infrastructure de TensorFlow, mais est moins flexible que SavedModel.
- Support communautaire et écosystème : Bon support de l'écosystème de TensorFlow, avec de nombreuses ressources disponibles pour l'optimisation des graphes statiques.
- Études de cas: Utile dans les scénarios où un graphe statique est nécessaire, comme dans certains systèmes embarqués.
- Maintenance et mises à jour : mises à jour régulières parallèlement aux mises à jour principales de TensorFlow.
- Considérations de sécurité : Assure un déploiement sûr grâce aux pratiques de sécurité établies de TensorFlow.
- Accélération matérielle : Peut utiliser les options d’accélération matérielle de TensorFlow, bien que moins flexible que SavedModel.
Apprenez-en davantage sur TF GraphDef dans notre guide d'intégration TF GraphDef.
TF Lite
TF Lite est la solution de TensorFlow pour l'apprentissage automatique sur les appareils mobiles et embarqués, fournissant une bibliothèque légère pour l'inférence sur l'appareil.
- Bancs d'essai de performance : Conçu pour la vitesse et l'efficacité sur les appareils mobiles et embarqués.
- Compatibilité et intégration : Peut être utilisé sur une large gamme d'appareils en raison de sa nature légère.
- Support communautaire et écosystème : Soutenu par Google, il dispose d’une communauté solide et d’un nombre croissant de ressources pour les développeurs.
- Études de cas : Populaire dans les applications mobiles qui nécessitent une inférence sur l'appareil avec un encombrement minimal.
- Maintenance et mises à jour : régulièrement mis à jour pour inclure les dernières fonctionnalités et optimisations pour les appareils mobiles.
- Considérations de sécurité : Fournit un environnement sécurisé pour l'exécution de modèles sur les appareils des utilisateurs finaux.
- Accélération matérielle : Prend en charge une variété d’options d’accélération matérielle, y compris GPU et DSP.
TF Edge TPU
TF Edge TPU est conçu pour un calcul haute vitesse et efficace sur le matériel Edge TPU de Google, parfait pour les appareils IoT nécessitant un traitement en temps réel.
- Bancs d'essai de performance : Spécifiquement optimisé pour un calcul haute vitesse et efficace sur le matériel Edge TPU de Google.
- Compatibilité et intégration : Fonctionne exclusivement avec les modèles TensorFlow Lite sur les appareils Edge TPU.
- Support communautaire et écosystème : Support croissant avec des ressources fournies par Google et des développeurs tiers.
- Études de cas : Utilisé dans les appareils IoT et les applications qui nécessitent un traitement en temps réel avec une faible latence.
- Maintenance et mises à jour : Amélioré continuellement pour tirer parti des capacités des nouvelles versions de matériel Edge TPU.
- Considérations de sécurité : S'intègre à la sécurité robuste de Google pour l'IoT et les appareils périphériques.
- Accélération matérielle : Conçu sur mesure pour tirer pleinement parti des appareils Google Coral.
TF.js
TensorFlow.js (TF.js) est une bibliothèque qui apporte des capacités d'apprentissage automatique directement au navigateur, offrant ainsi un nouveau champ de possibilités aux développeurs web et aux utilisateurs. Il permet d'intégrer des modèles d'apprentissage automatique dans des applications web sans avoir besoin d'une infrastructure back-end.
- Bancs d'essai de performance : Permet l'apprentissage automatique directement dans le navigateur avec des performances raisonnables, en fonction de l'appareil client.
- Compatibilité et intégration : Haute compatibilité avec les technologies web, permettant une intégration facile dans les applications web.
- Support communautaire et écosystème : Support d'une communauté de développeurs web et Node.js, avec une variété d'outils pour le déploiement de modèles de ML dans les navigateurs.
- Études de cas : Idéal pour les applications web interactives qui bénéficient de l'apprentissage automatique côté client sans avoir besoin de traitement côté serveur.
- Maintenance et mises à jour : maintenu par l’équipe TensorFlow avec les contributions de la communauté open source.
- Considérations de sécurité : S'exécute dans le contexte sécurisé du navigateur, en utilisant le modèle de sécurité de la plateforme web.
- Accélération matérielle : Les performances peuvent être améliorées avec des API Web qui accèdent à l’accélération matérielle comme WebGL.
PaddlePaddle
PaddlePaddle est un framework de deep learning open source développé par Baidu. Il est conçu pour être à la fois efficace pour les chercheurs et facile à utiliser pour les développeurs. Il est particulièrement populaire en Chine et offre un support spécialisé pour le traitement de la langue chinoise.
- Bancs d'essai de performance : Offre des performances compétitives en mettant l'accent sur la facilité d'utilisation et l'évolutivité.
- Compatibilité et intégration : Bien intégré dans l’écosystème de Baidu et prend en charge un large éventail d’applications.
- Support communautaire et écosystème : Bien que la communauté soit plus petite à l'échelle mondiale, elle croît rapidement, en particulier en Chine.
- Études de cas : Couramment utilisé sur les marchés chinois et par les développeurs à la recherche d'alternatives à d'autres cadres majeurs.
- Maintenance et mises à jour : régulièrement mis à jour en mettant l’accent sur la diffusion d’applications et de services d’IA en langue chinoise.
- Considérations de sécurité : Met l'accent sur la confidentialité des données et la sécurité, répondant aux normes chinoises de gouvernance des données.
- Accélération matérielle : Prend en charge diverses accélérations matérielles, y compris les propres puces Kunlun de Baidu.
MNN
MNN est un framework d'apprentissage profond très efficace et léger. Il prend en charge l'inférence et l'entraînement des modèles d'apprentissage profond et offre des performances de pointe pour l'inférence et l'entraînement sur l'appareil. De plus, MNN est également utilisé sur des appareils embarqués, tels que l'IoT.
- Bancs d'essai de performance : Haute performance pour les appareils mobiles avec une excellente optimisation pour les systèmes ARM.
- Compatibilité et intégration : Fonctionne bien avec les systèmes ARM mobiles et embarqués et les architectures CPU X86-64.
- Support communautaire et écosystème : Pris en charge par la communauté de l'apprentissage automatique mobile et embarqué.
- Études de cas : Idéal pour les applications nécessitant des performances efficaces sur les systèmes mobiles.
- Maintenance et mises à jour : Maintenance régulière pour garantir des performances élevées sur les appareils mobiles.
- Considérations de sécurité : Offre des avantages de sécurité sur l'appareil en conservant les données en local.
- Accélération matérielle : Optimisé pour les CPU et GPU ARM pour une efficacité maximale.
NCNN
NCNN est un framework d'inférence de réseau neuronal haute performance optimisé pour la plateforme mobile. Il se distingue par sa nature légère et son efficacité, ce qui le rend particulièrement adapté aux appareils mobiles et embarqués où les ressources sont limitées.
- Bancs d'essai de performance : Hautement optimisé pour les plateformes mobiles, offrant une inférence efficace sur les appareils basés sur ARM.
- Compatibilité et intégration : Convient aux applications sur les téléphones mobiles et les systèmes embarqués avec architecture ARM.
- Support communautaire et écosystème : Soutenu par une communauté de niche mais active, axée sur les applications ML mobiles et embarquées.
- Études de cas : Privilégié pour les applications mobiles où l'efficacité et la vitesse sont essentielles sur Android et d'autres systèmes basés sur ARM.
- Maintenance et mises à jour : Amélioré continuellement pour maintenir des performances élevées sur une gamme d'appareils ARM.
- Considérations de sécurité : Se concentre sur l'exécution locale sur l'appareil, tirant parti de la sécurité inhérente au traitement sur l'appareil.
- Accélération matérielle : Conçu pour les CPU et GPU ARM, avec des optimisations spécifiques pour ces architectures.
Analyse comparative des options de déploiement de YOLO11
Le tableau suivant donne un aperçu des différentes options de déploiement disponibles pour les modèles YOLO11, vous aidant à évaluer celles qui conviennent le mieux aux besoins de votre projet en fonction de plusieurs critères essentiels. Pour un aperçu approfondi du format de chaque option de déploiement, veuillez consulter la page de documentation Ultralytics sur les formats d'exportation.
Option de déploiement | Bancs d'essai de performance | Compatibilité et intégration | Assistance communautaire et écosystème | Études de cas | Maintenance et mises à jour | Considérations de sécurité | Accélération matérielle |
---|---|---|---|---|---|---|---|
PyTorch | Bonne flexibilité ; peut compromettre les performances brutes | Excellent avec les bibliothèques Python | Ressources complètes et communauté | Recherche et prototypes | Développement régulier et actif | Dépend de l'environnement de déploiement | Prise en charge de CUDA pour l'accélération GPU |
TorchScript | Meilleur pour la production que PyTorch | Transition en douceur de PyTorch vers C++ | Spécialisé mais plus étroit que PyTorch | Industrie où Python est un goulot d'étranglement | Mises à jour cohérentes avec PyTorch | Sécurité améliorée sans Python complet | Hérite du support CUDA de PyTorch |
ONNX | Variable en fonction de l'exécution | Élevé dans différents frameworks | Vaste écosystème, soutenu par de nombreuses organisations | Flexibilité entre les frameworks de ML | Mises à jour régulières pour les nouvelles opérations | Assurez-vous de pratiques de conversion et de déploiement sécurisées. | Diverses optimisations matérielles |
OpenVINO | Optimisé pour le matériel Intel | Idéal au sein de l'écosystème Intel | Solide dans le domaine de la vision par ordinateur | IoT et périphérie avec le matériel Intel | Mises à jour régulières pour le matériel Intel | Fonctionnalités robustes pour les applications sensibles | Conçu pour le matériel Intel |
TensorRT | De premier ordre sur les GPU NVIDIA | Idéal pour le matériel NVIDIA | Réseau solide via NVIDIA | Inférence d'images et de vidéos en temps réel | Mises à jour fréquentes pour les nouveaux GPU | Accent mis sur la sécurité | Conçu pour les GPU NVIDIA |
CoreML | Optimisé pour le matériel Apple sur l'appareil | Exclusif à l'écosystème Apple | Forte assistance d'Apple et des développeurs | ML sur l'appareil sur les produits Apple | Mises à jour régulières d'Apple | Concentration sur la confidentialité et la sécurité | Moteur neuronal et GPU d'Apple |
TF SavedModel | Évolutivité dans les environnements serveur | Large compatibilité dans l'écosystème TensorFlow | Support important en raison de la popularité de TensorFlow | Servir des modèles à l'échelle | Mises à jour régulières par Google et la communauté | Fonctionnalités robustes pour l'entreprise | Diverses accélérations matérielles |
TF GraphDef | Stable pour les graphes de calcul statiques | S'intègre bien avec l'infrastructure TensorFlow | Ressources pour l'optimisation des graphes statiques | Scénarios nécessitant des graphiques statiques | Mises à jour en parallèle du cœur de TensorFlow | Pratiques de sécurité TensorFlow établies | Options d'accélération TensorFlow |
TF Lite | Vitesse et efficacité sur mobile/embarqué | Large gamme de prise en charge des appareils | Communauté robuste, soutenue par Google | Applications mobiles avec un encombrement minimal | Dernières fonctionnalités pour mobile | Environnement sécurisé sur les appareils de l'utilisateur final | GPU et DSP entre autres |
TF Edge TPU | Optimisé pour le matériel Edge TPU de Google | Exclusif aux appareils Edge TPU | Développement avec Google et des ressources tierces | Appareils IoT nécessitant un traitement en temps réel | Améliorations pour le nouveau matériel Edge TPU | La sécurité IoT robuste de Google | Conçu sur mesure pour Google Coral |
TF.js | Performances raisonnables dans le navigateur | Élevé avec les technologies web | Prise en charge des développeurs Web et Node.js | Applications web interactives | Contributions de l'équipe TensorFlow et de la communauté | Modèle de sécurité de la plateforme Web | Amélioré avec WebGL et d'autres API |
PaddlePaddle | Compétitif, facile à utiliser et évolutif | Écosystème Baidu, large prise en charge des applications | Croissance rapide, surtout en Chine | Marché chinois et traitement du langage | Concentration sur les applications d'IA chinoises | Met l'accent sur la confidentialité et la sécurité des données | Incluant les puces Kunlun de Baidu |
MNN | Haute performance pour les appareils mobiles. | Systèmes ARM mobiles et embarqués et CPU X86-64 | Communauté ML mobile/embarquée | Efficacité des systèmes mobiles | Maintenance haute performance sur les appareils mobiles | Avantages de la sécurité sur l'appareil | Optimisations des CPU et GPU ARM |
NCNN | Optimisé pour les appareils mobiles basés sur ARM | Systèmes ARM mobiles et embarqués | Communauté ML mobile/embarquée de niche mais active | Efficacité des systèmes Android et ARM | Maintenance haute performance sur ARM | Avantages de la sécurité sur l'appareil | Optimisations des CPU et GPU ARM |
Cette analyse comparative vous donne une vue d'ensemble de haut niveau. Pour le déploiement, il est essentiel de tenir compte des exigences et des contraintes spécifiques de votre projet, et de consulter la documentation détaillée et les ressources disponibles pour chaque option.
Communauté et assistance
Lorsque vous débutez avec YOLO11, le fait de disposer d'une communauté et d'un soutien utiles peut avoir un impact significatif. Voici comment entrer en contact avec d'autres personnes qui partagent vos intérêts et obtenir l'aide dont vous avez besoin.
Interagissez avec la communauté au sens large
- Discussions GitHub : Le référentiel YOLO11 sur GitHub a une section "Discussions" où vous pouvez poser des questions, signaler des problèmes et suggérer des améliorations.
- Serveur Discord Ultralytics : Ultralytics possède un serveur Discord où vous pouvez interagir avec d’autres utilisateurs et développeurs.
Documentation et ressources officielles
- Documentation Ultralytics YOLO11 : La documentation officielle offre une vue d'ensemble complète de YOLO11, ainsi que des guides sur l'installation, l'utilisation et le dépannage.
Ces ressources vous aideront à relever les défis et à rester informé des dernières tendances et des meilleures pratiques de la communauté YOLO11.
Conclusion
Dans ce guide, nous avons exploré les différentes options de déploiement pour YOLO11. Nous avons également discuté des facteurs importants à prendre en compte lors de votre choix. Ces options vous permettent de personnaliser votre modèle pour différents environnements et exigences de performance, le rendant ainsi adapté aux applications du monde réel.
N'oubliez pas que la communauté YOLO11 et Ultralytics est une source d'aide précieuse. Connectez-vous avec d'autres développeurs et experts pour découvrir des astuces et des solutions uniques que vous ne trouverez peut-être pas dans la documentation habituelle. Continuez à chercher des connaissances, à explorer de nouvelles idées et à partager vos expériences.
Bon déploiement !
FAQ
Quelles sont les options de déploiement disponibles pour YOLO11 sur différentes plateformes matérielles ?
Ultralytics YOLO11 prend en charge divers formats de déploiement, chacun étant conçu pour des environnements et des plateformes matérielles spécifiques. Les principaux formats incluent :
- PyTorch pour la recherche et le prototypage, avec une excellente intégration python.
- TorchScript pour les environnements de production où python n’est pas disponible.
- ONNX pour la compatibilité multiplateforme et l'accélération matérielle.
- OpenVINO pour des performances optimisées sur le matériel Intel.
- TensorRT pour une inférence à haute vitesse sur les GPU NVIDIA.
Chaque format a des avantages uniques. Pour une présentation détaillée, consultez notre documentation sur le processus d'exportation.
Comment améliorer la vitesse d’inférence de mon modèle YOLO11 sur un CPU Intel ?
Pour améliorer la vitesse d’inférence sur les CPU Intel, vous pouvez déployer votre modèle YOLO11 à l’aide du toolkit OpenVINO d’Intel. OpenVINO offre des gains de performance significatifs en optimisant les modèles pour exploiter efficacement le matériel Intel.
- Convertissez votre modèle YOLO11 au format OpenVINO en utilisant le
model.export()
fonction. - Suivez le guide de configuration détaillé dans la documentation d'exportation Intel OpenVINO.
Pour plus d'informations, consultez notre article de blog.
Puis-je déployer des modèles YOLO11 sur des appareils mobiles ?
Oui, les modèles YOLO11 peuvent être déployés sur des appareils mobiles en utilisant TensorFlow Lite (TF Lite) pour les plateformes Android et iOS. TF Lite est conçu pour les appareils mobiles et embarqués, offrant une inférence efficace sur l'appareil.
Exemple
# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite
Pour plus de détails sur le déploiement de modèles sur mobile, consultez notre guide d'intégration TF Lite.
Quels facteurs dois-je prendre en compte lors du choix d’un format de déploiement pour mon modèle YOLO11 ?
Lors du choix d'un format de déploiement pour YOLO11, tenez compte des facteurs suivants :
- Performance : Certains formats comme TensorRT offrent des vitesses exceptionnelles sur les GPU NVIDIA, tandis qu'OpenVINO est optimisé pour le matériel Intel.
- Compatibilité : ONNX offre une large compatibilité sur différentes plateformes.
- Facilité d'intégration : Les formats tels que CoreML ou TF Lite sont adaptés à des écosystèmes spécifiques comme iOS et Android, respectivement.
- Support communautaire : Les formats tels que PyTorch et TensorFlow disposent de nombreuses ressources communautaires et d'un support étendu.
Pour une analyse comparative, consultez notre documentation sur les formats d'exportation.
Comment puis-je déployer des modèles YOLO11 dans une application Web ?
Pour déployer des modèles YOLO11 dans une application Web, vous pouvez utiliser TensorFlow.js (TF.js), qui permet d’exécuter des modèles d'apprentissage automatique directement dans le navigateur. Cette approche élimine le besoin d’une infrastructure dorsale et offre des performances en temps réel.
- Exporter le modèle YOLO11 au format TF.js.
- Intégrez le modèle exporté dans votre application web.
Pour obtenir des instructions étape par étape, consultez notre guide sur l'intégration de TensorFlow.js.