Skip to content

Des tutoriels complets pour Ultralytics YOLO

Bienvenue sur le site Ultralytics'YOLO 🚀 Guides ! Nos tutoriels complets couvrent divers aspects du modèle dedétection d'objets YOLO , allant de l'entraînement et de la prédiction au déploiement. Construit sur PyTorchYOLO se distingue par sa vitesse et sa précision exceptionnelles dans les tâches de détection d'objets en temps réel.

Que vous soyez débutant ou expert en apprentissage profond, nos tutoriels offrent des informations précieuses sur la mise en œuvre et l'optimisation de YOLO pour vos projets de vision par ordinateur. Plongeons dans l'aventure !



Regarder : Ultralytics YOLO11 Aperçu des guides

Guides

Voici une compilation de guides détaillés pour vous aider à maîtriser les différents aspects de Ultralytics YOLO .

  • YOLO Problèmes courants ⭐ RECOMMANDÉ : Solutions pratiques et conseils de dépannage pour les problèmes les plus fréquents rencontrés avec les modèles Ultralytics YOLO .
  • YOLO Mesures de performance ⭐ ESSENTIEL : Comprendre les mesures clés telles que mAP, IoU et F1 score utilisées pour évaluer la performance de vos modèles YOLO . Inclut des exemples pratiques et des conseils sur la façon d'améliorer la précision et la vitesse de détection.
  • Options de déploiement de modèles: Vue d'ensemble des formats dedéploiement du modèle YOLO , tels que ONNX, OpenVINO et TensorRT, avec les avantages et les inconvénients de chacun d'entre eux afin d'éclairer votre stratégie de déploiement.
  • K-Fold Cross Validation 🚀 NOUVEAU : Apprenez à améliorer la généralisation des modèles à l'aide de la technique de validation croisée K-Fold.
  • Hyperparameter Tuning 🚀 NEW : Découvrez comment optimiser vos modèles YOLO en affinant les hyperparamètres à l'aide de la classe Tuner et des algorithmes d'évolution génétique.
  • SAHI Tiled Inference 🚀 NOUVEAU : Guide complet sur l'exploitation des capacités d'inférence en tranches de SAHI avec YOLO11 pour la détection d'objets dans les images haute résolution.
  • AzureML Quickstart 🚀 NEW : Get up and running with Ultralytics YOLO models on Microsoft's Azure Machine Learning platform. Apprenez à former, déployer et mettre à l'échelle vos projets de détection d'objets dans le cloud.
  • Conda Quickstart 🚀 NOUVEAU : Guide étape par étape pour configurer un environnement Conda pour Ultralytics. Apprenez à installer et à utiliser efficacement le paquet Ultralytics avec Conda.
  • Docker Quickstart 🚀 NOUVEAU : Guide complet de configuration et d'utilisation des modèles Ultralytics YOLO avec Docker. Apprenez à installer Docker, à gérer le support GPU et à exécuter les modèles YOLO dans des conteneurs isolés pour un développement et un déploiement cohérents.
  • Raspberry Pi 🚀 NOUVEAU : Tutoriel de démarrage rapide pour exécuter les modèles YOLO sur le matériel Raspberry Pi le plus récent.
  • NVIDIA Jetson 🚀 NOUVEAU : Guide de démarrage rapide pour le déploiement des modèles YOLO sur les appareils NVIDIA Jetson.
  • DeepStream sur NVIDIA Jetson 🚀 NOUVEAU : Guide de démarrage rapide pour le déploiement des modèles YOLO sur les appareils NVIDIA Jetson à l'aide de DeepStream et TensorRT.
  • Triton Intégration du serveur d'inférence 🚀 NOUVEAU : Plongez dans l'intégration de Ultralytics YOLO11 avec NVIDIA's Triton Inference Server pour des déploiements d'inférence d'apprentissage profond évolutifs et efficaces.
  • YOLO Thread-Safe Inference 🚀 NOUVEAU : Lignes directrices pour effectuer l'inférence avec les modèles YOLO d'une manière sûre pour les threads. Apprenez l'importance de la sécurité des threads et les meilleures pratiques pour éviter les conditions de course et garantir des prédictions cohérentes.
  • Isolation des objets de segmentation 🚀 NOUVEAU : Recette et explication étape par étape sur la façon d'extraire et/ou d'isoler des objets d'images à l'aide de Ultralytics Segmentation.
  • Edge TPU sur Raspberry Pi: Google Edge TPU accélère l'inférence de YOLO sur Raspberry Pi.
  • Visualiser les images d'inférence dans un terminal: Utilisez le terminal intégré de VSCode pour visualiser les résultats de l'inférence lors de l'utilisation de Remote Tunnel ou de sessions SSH.
  • OpenVINO Modes de latence et de débit - Apprenez les techniques d'optimisation de la latence et du débit pour des performances d'inférence optimales sur YOLO .
  • Étapes d'un projet de vision par ordinateur 🚀 NOUVEAU : Découvrez les principales étapes d'un projet de vision par ordinateur, notamment la définition des objectifs, la sélection des modèles, la préparation des données et l'évaluation des résultats.
  • Définir les objectifs d'un projet de vision par ordinateur 🚀 NOUVEAU : Découvrez comment définir efficacement des objectifs clairs et mesurables pour votre projet de vision par ordinateur. Apprenez l'importance d'un énoncé de problème bien défini et comment il crée une feuille de route pour votre projet.
  • Collecte et annotation des données 🚀 NOUVEAU : Explorez les outils, les techniques et les meilleures pratiques de collecte et d'annotation des données afin de créer des entrées de haute qualité pour vos modèles de vision par ordinateur.
  • Prétraitement des données annotées 🚀 NOUVEAU : Découvrez le prétraitement et l'augmentation des données d'images dans les projets de vision par ordinateur à l'aide de YOLO11, notamment la normalisation, l'augmentation des ensembles de données, la division et l'analyse exploratoire des données (AED).
  • Conseils pour l'entraînement des modèles 🚀 NOUVEAU : Découvrez des conseils sur l'optimisation de la taille des lots, l'utilisation de la précision mixte, l'application de poids pré-entraînés, et bien d'autres choses encore pour faciliter l'entraînement de votre modèle de vision par ordinateur.
  • Aperçu de l'évaluation et de la mise au point des modèles 🚀 NOUVEAU : Découvrez les stratégies et les meilleures pratiques d'évaluation et de mise au point de vos modèles de vision par ordinateur. Découvrez le processus itératif d'affinage des modèles pour obtenir des résultats optimaux.
  • Un guide sur le test des modèles 🚀 NOUVEAU : Un guide complet sur le test de vos modèles de vision par ordinateur dans des environnements réalistes. Apprenez à vérifier la précision, la fiabilité et les performances en fonction des objectifs du projet.
  • Meilleures pratiques pour le déploiement de modèles 🚀 NOUVEAU : Conseils et meilleures pratiques pour déployer efficacement des modèles dans des projets de vision par ordinateur, en mettant l'accent sur l'optimisation, le dépannage et la sécurité.
  • Maintenir votre modèle de vision par ordinateur 🚀 NOUVEAU : Comprendre les pratiques clés pour surveiller, maintenir et documenter les modèles de vision par ordinateur afin de garantir la précision, de repérer les anomalies et d'atténuer la dérive des données.
  • Démarrage rapide ROS 🚀 NOUVEAU : Apprenez à intégrer YOLO au Robot Operating System (ROS) pour la détection d'objets en temps réel dans les applications robotiques, y compris les images de nuages de points et de profondeur.

Contribuer à nos guides

Les contributions de la communauté sont les bienvenues ! Si vous maîtrisez un aspect particulier de Ultralytics YOLO qui n'est pas encore couvert par nos guides, nous vous encourageons à partager votre expertise. La rédaction d'un guide est un excellent moyen de rendre service à la communauté et de nous aider à rendre notre documentation plus complète et plus conviviale.

Pour commencer, veuillez lire notre Guide de contribution pour savoir comment ouvrir une demande d'extraction (PR) 🛠️. Nous attendons avec impatience vos contributions !

Travaillons ensemble pour rendre l'écosystème Ultralytics YOLO plus robuste et plus polyvalent 🙏 !

FAQ

Comment entraîner un modèle de détection d'objets personnalisé à l'aide de Ultralytics YOLO ?

L'entraînement d'un modèle de détection d'objets personnalisé avec Ultralytics YOLO est simple. Commencez par préparer votre jeu de données au bon format et installez le paquetage Ultralytics . Utilisez le code suivant pour lancer la formation :

Exemple

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Pour plus de détails sur le formatage des ensembles de données et les options supplémentaires, reportez-vous à notre guide Conseils pour l'apprentissage des modèles.

Quelles mesures de performance dois-je utiliser pour évaluer mon modèle YOLO ?

L'évaluation des performances de votre modèle YOLO est essentielle pour comprendre son efficacité. Les principales mesures sont la précision moyenne (mAP), l'intersection sur l'union (IoU) et le score F1. Ces mesures permettent d'évaluer l'exactitude et la précision des tâches de détection d'objets. Pour en savoir plus sur ces mesures et sur la manière d'améliorer votre modèle, consultez notre guide YOLO Performance Metrics.

Pourquoi devrais-je utiliser Ultralytics HUB pour mes projets de vision par ordinateur ?

Ultralytics HUB est une plateforme sans code qui simplifie la gestion, la formation et le déploiement des modèles YOLO . Elle prend en charge l'intégration transparente, le suivi en temps réel et la formation en nuage, ce qui la rend idéale pour les débutants comme pour les professionnels. Découvrez ses fonctionnalités et la façon dont il peut rationaliser votre flux de travail grâce à notre guide de démarrage rapide Ultralytics HUB.

Quels sont les problèmes les plus fréquents rencontrés lors de la formation au modèle YOLO et comment les résoudre ?

Les problèmes les plus fréquents lors de l'apprentissage des modèles YOLO sont les erreurs de formatage des données, les inadéquations de l'architecture des modèles et l'insuffisance des données d'apprentissage. Pour y remédier, assurez-vous que votre jeu de données est correctement formaté, vérifiez la compatibilité des versions du modèle et augmentez vos données de formation. Pour obtenir une liste complète de solutions, consultez notre guide YOLO Common Issues.

Comment puis-je déployer mon modèle YOLO pour la détection d'objets en temps réel sur des appareils périphériques ?

Le déploiement des modèles YOLO sur des périphériques tels que NVIDIA Jetson et Raspberry Pi nécessite la conversion du modèle dans un format compatible tel que TensorRT ou TFLite. Suivez nos guides pas à pas pour NVIDIA Jetson et Raspberry Pi afin de démarrer la détection d'objets en temps réel sur du matériel périphérique. Ces guides vous guideront à travers l'installation, la configuration et l'optimisation des performances.

📅C réé il y a 1 an ✏️ Mis à jour il y a 2 mois

Commentaires