Passer au contenu

Intégrations Ultralytics

Bienvenue sur la page des intégrations Ultralytics ! Cette page offre une vue d’ensemble de nos partenariats avec divers outils et plateformes, conçus pour simplifier vos flux de travail d’apprentissage machine, améliorer la gestion des ensembles de données, simplifier la formation des modèles et faciliter le déploiement efficace.

Écosystème et intégrations Ultralytics YOLO



Regarder : Déploiement et intégrations d’Ultralytics YOLO11

Intégrations d'entraînement

  • Amazon SageMaker : Tirez parti d’Amazon SageMaker pour créer, former et déployer efficacement des modèles Ultralytics, en fournissant une plateforme tout-en-un pour le cycle de vie de l’apprentissage machine.

  • ClearML : Automatisez vos flux de travail d’apprentissage machine Ultralytics, surveillez les expériences et favorisez la collaboration d’équipe.

  • Comet ML : Améliorez le développement de votre modèle avec Ultralytics en suivant, en comparant et en optimisant vos expériences d’apprentissage machine.

  • DVC : Mettez en œuvre le contrôle de version pour vos projets d’apprentissage machine Ultralytics, en synchronisant efficacement les données, le code et les modèles.

  • Google Colab : Utilisez Google Colab pour former et évaluer les modèles Ultralytics dans un environnement infonuagique qui prend en charge la collaboration et le partage.

  • IBM Watsonx : Voyez comment IBM Watsonx simplifie la formation et l’évaluation des modèles Ultralytics grâce à ses outils d’IA de pointe, son intégration sans effort et son système avancé de gestion des modèles.

  • JupyterLab : Découvrez comment utiliser l’environnement interactif et personnalisable de JupyterLab pour former et évaluer les modèles Ultralytics avec facilité et efficacité.

  • Kaggle : Découvrez comment vous pouvez utiliser Kaggle pour former et évaluer les modèles Ultralytics dans un environnement infonuagique avec des bibliothèques préinstallées, la prise en charge des GPU et une communauté dynamique pour la collaboration et le partage.

  • MLFlow : Rationalisez l’ensemble du cycle de vie de l’apprentissage machine des modèles Ultralytics, de l’expérimentation et de la reproductibilité au déploiement.

  • Neptune : Tenez un registre complet de vos expériences d’apprentissage machine avec Ultralytics dans ce magasin de métadonnées conçu pour MLOps.

  • Paperspace Gradient : Paperspace Gradient simplifie le travail sur les projets YOLO11 en fournissant des outils infonuagiques faciles à utiliser pour la formation, les tests et le déploiement rapide de vos modèles.

  • Ray Tune : Optimisez les hyperparamètres de vos modèles Ultralytics à n’importe quelle échelle.

  • TensorBoard : Visualisez vos flux de travail d’apprentissage machine Ultralytics, surveillez les mesures des modèles et favorisez la collaboration d’équipe.

  • Ultralytics HUB : Accédez à une communauté de modèles Ultralytics préformés et contribuez à celle-ci.

  • Weights & Biases (W&B) : Surveillez les expériences, visualisez les mesures et favorisez la reproductibilité et la collaboration sur les projets Ultralytics.

  • VS Code : Une extension pour VS Code qui fournit des extraits de code pour accélérer les flux de travail de développement avec Ultralytics et aussi pour tous ceux qui recherchent des exemples pour aider à apprendre ou à démarrer avec Ultralytics.

  • Albumentations : Améliorez vos modèles Ultralytics grâce à de puissantes augmentations d’images afin d’améliorer la robustesse et la généralisation des modèles.

Intégrations de déploiement

  • TorchScript : Développé dans le cadre du framework PyTorch, TorchScript permet l’exécution et le déploiement efficaces de modèles d’apprentissage automatique dans divers environnements de production sans avoir besoin de dépendances Python.

  • ONNX : Un format open source créé par Microsoft pour faciliter le transfert de modèles d’IA entre divers frameworks, améliorant ainsi la polyvalence et la flexibilité de déploiement des modèles Ultralytics.

  • OpenVINO : La boîte à outils d’Intel pour optimiser et déployer efficacement des modèles de vision par ordinateur sur diverses plateformes CPU et GPU d’Intel.

  • TensorRT : Développé par NVIDIA, ce framework d’inférence d’apprentissage profond haute performance et ce format de modèle optimisent les modèles d’IA pour une vitesse et une efficacité accélérées sur les GPU NVIDIA, assurant un déploiement simplifié.

  • CoreML : CoreML, développé par Apple, est un cadre conçu pour intégrer efficacement les modèles d’apprentissage machine dans les applications sur iOS, macOS, watchOS et tvOS, en utilisant le matériel d’Apple pour un déploiement de modèles efficace et sécurisé.

  • TF SavedModel : Développé par Google, TF SavedModel est un format de sérialisation universel pour les modèles TensorFlow, permettant un partage et un déploiement faciles sur un large éventail de plateformes, des serveurs aux appareils périphériques.

  • TF GraphDef : Développé par Google, GraphDef est le format de TensorFlow pour représenter les graphes de calcul, permettant une exécution optimisée des modèles d’apprentissage automatique sur divers matériels.

  • TFLite : Développé par Google, TFLite est un framework léger pour le déploiement de modèles d’apprentissage automatique sur les appareils mobiles et périphériques, assurant une inférence rapide et efficace avec un encombrement mémoire minimal.

  • TFLite Edge TPU : Développé par Google pour optimiser les modèles TensorFlow Lite sur les Edge TPU, ce format de modèle assure un edge computing efficace et à haute vitesse.

  • TF.js : Développé par Google pour faciliter l’apprentissage automatique dans les navigateurs et Node.js, TF.js permet le déploiement de modèles ML basés sur JavaScript.

  • PaddlePaddle : Une plateforme d’apprentissage profond open source de Baidu, PaddlePaddle permet le déploiement efficace de modèles d’IA et se concentre sur l’évolutivité des applications industrielles.

  • MNN : Développé par Alibaba, MNN est un cadre d’apprentissage profond très efficace et léger. Il prend en charge l’inférence et la formation des modèles d’apprentissage profond et offre une performance de pointe pour l’inférence et la formation sur l’appareil.

  • NCNN : Développé par Tencent, NCNN est un cadre d’inférence de réseau neuronal efficace conçu pour les appareils mobiles. Il permet le déploiement direct des modèles d’IA dans les applications, optimisant ainsi les performances sur diverses plateformes mobiles.

  • SONY IMX500 🚀 NOUVEAU : Optimisez et déployez les modèles Ultralytics YOLOv8 sur les caméras Raspberry Pi AI avec le capteur IMX500 pour des performances rapides et à faible consommation.

  • Rockchip RKNN : Développé par Rockchip, RKNN est un framework d'inférence de réseau neuronal spécialisé, optimisé pour les plateformes matérielles de Rockchip, en particulier leurs NPU. Il facilite le déploiement efficace de modèles d'IA sur les appareils périphériques, permettant une inférence haute performance dans les applications en temps réel.

  • Neural Magic : Tirez parti de la formation axée sur la quantification (Quantization Aware Training, QAT) et des techniques d’élagage pour optimiser les modèles Ultralytics afin d’obtenir des performances supérieures et une taille plus compacte.

  • Seeed Studio reCamera : Développée par Seeed Studio, la reCamera est un appareil d'IA de pointe conçu pour les applications de vision artificielle en temps réel. Alimentée par le processeur SG200X basé sur RISC-V, elle offre une inférence d'IA haute performance avec une efficacité énergétique. Sa conception modulaire, ses capacités avancées de traitement vidéo et sa prise en charge d'un déploiement flexible en font un choix idéal pour divers cas d'utilisation, notamment la surveillance de la sécurité, les applications environnementales et la fabrication.

  • Gradio : Déployez les modèles Ultralytics avec Gradio pour des démos interactives de détection d'objets en temps réel.

Intégrations de jeux de données

  • Roboflow : Facilitez l'étiquetage et la gestion des ensembles de données pour les modèles Ultralytics, en offrant des outils d'annotation pour étiqueter les images.

Formats d'exportation

Nous prenons également en charge une variété de formats d’exportation de modèles pour le déploiement dans différents environnements. Voici les formats disponibles :

Format format Argument Modèle Métadonnées Arguments
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

Explorez les liens pour en savoir plus sur chaque intégration et sur la façon d’en tirer le meilleur parti avec Ultralytics. Voir la version complète export détails dans la section Exporter page.

Contribuer à nos intégrations

Nous sommes toujours ravis de voir comment la communauté intègre Ultralytics YOLO avec d'autres technologies, outils et plateformes ! Si vous avez intégré avec succès YOLO à un nouveau système ou si vous avez des informations précieuses à partager, pensez à contribuer à notre documentation sur les intégrations.

En rédigeant un guide ou un tutoriel, vous pouvez aider à étoffer notre documentation et fournir des exemples concrets qui profitent à la communauté. C’est un excellent moyen de contribuer à l’écosystème croissant autour d’Ultralytics YOLO.

Pour contribuer, veuillez consulter notre Guide de contribution pour obtenir des instructions sur la façon de soumettre une demande de tirage (Pull Request, PR) 🛠️. Nous attendons vos contributions avec impatience !

Collaborons pour rendre l’écosystème Ultralytics YOLO plus vaste et plus riche en fonctionnalités 🙏 !

FAQ

Qu'est-ce qu'Ultralytics HUB et comment rationalise-t-il le flux de travail ML ?

Ultralytics HUB est une plateforme basée sur le cloud conçue pour rendre les flux de travail d'apprentissage automatique pour les modèles Ultralytics transparents et efficaces. En utilisant cet outil, vous pouvez facilement télécharger des ensembles de données, entraîner des modèles, effectuer un suivi en temps réel et déployer des modèles YOLO sans avoir besoin de compétences approfondies en codage. La plateforme sert d'espace de travail centralisé où vous pouvez gérer l'ensemble de votre pipeline ML, de la préparation des données au déploiement. Vous pouvez explorer les principales fonctionnalités sur la page Ultralytics HUB et démarrer rapidement avec notre guide Démarrage rapide.

Puis-je suivre les performances de mes modèles Ultralytics à l'aide de MLFlow ?

Oui, c'est possible. L'intégration de MLFlow avec les modèles Ultralytics vous permet de suivre les expériences, d'améliorer la reproductibilité et de rationaliser l'ensemble du cycle de vie du ML. Des instructions détaillées pour la configuration de cette intégration sont disponibles sur la page d'intégration MLFlow. Cette intégration est particulièrement utile pour surveiller les métriques du modèle, comparer différentes exécutions d'entraînement et gérer efficacement le flux de travail ML. MLFlow fournit une plateforme centralisée pour enregistrer les paramètres, les métriques et les artefacts, ce qui facilite la compréhension du comportement du modèle et l'apport d'améliorations basées sur les données.

Quels sont les avantages de l'utilisation de Neural Magic pour l'optimisation du modèle YOLO11 ?

Neural Magic optimise les modèles YOLO11 en exploitant des techniques telles que l'entraînement sensible à la quantification (QAT) et l'élagage, ce qui permet d'obtenir des modèles plus petits et très efficaces qui fonctionnent mieux sur du matériel aux ressources limitées. Consultez la page d'intégration Neural Magic pour savoir comment mettre en œuvre ces optimisations afin d'obtenir des performances supérieures et des modèles plus légers. Ceci est particulièrement avantageux pour le déploiement sur des appareils périphériques où les ressources de calcul sont limitées. Le moteur DeepSparse de Neural Magic peut fournir une inférence jusqu'à 6 fois plus rapide sur les CPU, ce qui permet d'exécuter des modèles complexes sans matériel spécialisé.

Comment déployer les modèles Ultralytics YOLO avec Gradio pour des démos interactives ?

Pour déployer des modèles Ultralytics YOLO avec Gradio pour des démos interactives de détection d'objets, vous pouvez suivre les étapes décrites sur la page d'intégration Gradio. Gradio vous permet de créer des interfaces web faciles à utiliser pour l'inférence de modèles en temps réel, ce qui en fait un excellent outil pour présenter les capacités de votre modèle YOLO dans un format convivial, adapté aux développeurs comme aux utilisateurs finaux. Avec seulement quelques lignes de code, vous pouvez créer des applications interactives qui démontrent les performances de votre modèle sur des entrées personnalisées, facilitant ainsi une meilleure compréhension et évaluation de vos solutions de vision par ordinateur.



📅 Créé il y a 1 an ✏️ Mis à jour il y a 7 jours

Commentaires