Skip to content

Des tutoriels complets pour Ultralytics YOLO

Bienvenue dans les Ultralytics'YOLO 🚀 Guides ! Nos tutoriels complets couvrent divers aspects du modèle de détection d'objets YOLO , allant de l'entraînement et de la prédiction au déploiement. Construit sur PyTorch, YOLO se distingue par sa vitesse et sa précision exceptionnelles dans les tâches de détection d'objets en temps réel.

Que tu sois débutant ou expert en apprentissage profond, nos tutoriels offrent des indications précieuses sur la mise en œuvre et l'optimisation de YOLO pour tes projets de vision par ordinateur. Plongeons-y !



Regarde : Ultralytics YOLOv8 Aperçu des guides

Guides

Voici une compilation de guides approfondis pour t'aider à maîtriser les différents aspects de Ultralytics YOLO .

  • YOLO Problèmes courants ⭐ RECOMMANDÉ : Solutions pratiques et conseils de dépannage aux problèmes les plus fréquemment rencontrés lors de l'utilisation des modèles Ultralytics YOLO .
  • YOLO Métriques de performance ⭐ ESSENTIEL : Comprends les métriques clés comme le mAP, l'IoU et le score F1 utilisées pour évaluer la performance de tes modèles YOLO . Comprend des exemples pratiques et des conseils sur la façon d'améliorer la précision et la vitesse de détection.
  • Options de déploiement de modèles: Vue d'ensemble des formats de déploiement du modèle YOLO tels que ONNX, OpenVINO, et TensorRT, avec les avantages et les inconvénients de chacun d'entre eux pour informer ta stratégie de déploiement.
  • Validation croisée K -Fold 🚀 NOUVEAU : Apprends à améliorer la généralisation des modèles à l'aide de la technique de validation croisée K-Fold.
  • Hyperparameter Tuning 🚀 NEW : Découvre comment optimiser tes modèles YOLO en affinant les hyperparamètres à l'aide de la classe Tuner et des algorithmes d'évolution génétique.
  • SAHI Tiled Inference 🚀 NOUVEAU : Guide complet sur l'exploitation des capacités d'inférence en tranches de SAHI avec YOLOv8 pour la détection d'objets dans les images à haute résolution.
  • AzureML Quickstart 🚀 NEW : Get up and running with Ultralytics YOLO models on Microsoft's Azure Machine Learning platform. Apprends à former, déployer et mettre à l'échelle tes projets de détection d'objets dans le cloud.
  • Conda Quickstart 🚀 NOUVEAU : Guide étape par étape pour la mise en place d'un environnement Conda pour Ultralytics. Apprends à installer et à commencer à utiliser efficacement le paquet Ultralytics avec Conda.
  • Docker Quickstart 🚀 NOUVEAU : Guide complet pour configurer et utiliser les modèles Ultralytics YOLO avec Docker. Apprends à installer Docker, à gérer le support GPU et à exécuter les modèles YOLO dans des conteneurs isolés pour un développement et un déploiement cohérents.
  • Raspberry Pi 🚀 NOUVEAU : Tutoriel de démarrage rapide pour exécuter les modèles YOLO sur le matériel Raspberry Pi le plus récent.
  • NVIDIA Jetson 🚀 NOUVEAU : Guide de démarrage rapide pour le déploiement des modèles YOLO sur les appareils NVIDIA Jetson.
  • DeepStream sur NVIDIA Jetson 🚀 NOUVEAU : Guide de démarrage rapide pour le déploiement des modèles YOLO sur les appareils NVIDIA Jetson à l'aide de DeepStream et TensorRT.
  • Triton Intégration du serveur d'inférence 🚀 NOUVEAU : Plonge dans l'intégration de Ultralytics YOLOv8 avec NVIDIA's Triton Inference Server pour des déploiements d'inférence d'apprentissage profond évolutifs et efficaces.
  • YOLO Thread-Safe Inference 🚀 NEW : Directives pour effectuer l'inférence avec les modèles YOLO de manière thread-safe. Apprends l'importance de la sécurité des threads et les meilleures pratiques pour éviter les conditions de course et assurer des prédictions cohérentes.
  • Isoler les objets de la segmentation 🚀 NOUVEAU : Recette et explication étape par étape sur la façon d'extraire et/ou d'isoler des objets d'images à l'aide de Ultralytics Segmentation.
  • Edge TPU sur Raspberry Pi: Google Edge TPU accélère l'inférence de YOLO sur Raspberry Pi.
  • Visualiser les images d'inférence dans un terminal: Utilise le terminal intégré de VSCode pour visualiser les résultats de l'inférence lorsque tu utilises le tunnel à distance ou les sessions SSH.
  • OpenVINO Modes de latence et de débit - Apprends les techniques d'optimisation de la latence et du débit pour obtenir des performances d'inférence optimales sur YOLO .
  • Étapes d’un projet de vision par ordinateur NOUVEAU : découvrez les étapes clés d’un projet de vision par ordinateur, notamment la définition des objectifs, la sélection des modèles, la préparation des données et l’évaluation des résultats. 🚀
  • Définir les objectifs 🚀 d’un projet de vision par ordinateur NOUVEAU : Découvrez comment définir efficacement des objectifs clairs et mesurables pour votre projet de vision par ordinateur. Découvrez l’importance d’un énoncé de problème bien défini et comment il crée une feuille de route pour votre projet.
  • Collecte et annotation 🚀 de données NOUVEAU : Explorez les outils, les techniques et les meilleures pratiques de collecte et d’annotation de données afin de créer des entrées de haute qualité pour vos modèles de vision par ordinateur.
  • Prétraitement des données 🚀 annotées NOUVEAU : Découvrez le prétraitement et l’augmentation des données d’image dans les projets de vision par ordinateur à l’aide de YOLOv8, y compris la normalisation, l’augmentation des ensembles de données, le fractionnement et l’analyse exploratoire des données (EDA).
  • Conseils pour l’entraînement de 🚀 modèles NOUVEAU : Découvrez des conseils sur l’optimisation de la taille des lots, l’utilisation de la précision mixte, l’application de poids pré-entraînés et bien plus encore pour faciliter l’entraînement de votre modèle de vision par ordinateur.
  • Informations sur l’évaluation et le réglage 🚀 fin des modèles NOUVEAU : Obtenez des informations sur les stratégies et les meilleures pratiques pour évaluer et affiner vos modèles de vision par ordinateur. Découvrez le processus itératif d’affinement des modèles pour obtenir des résultats optimaux.
  • Un guide sur le test des modèles 🚀 NOUVEAU : Un guide complet sur le test de tes modèles de vision par ordinateur dans des contextes réalistes. Apprends à vérifier la précision, la fiabilité et les performances en fonction des objectifs du projet.
  • Meilleures pratiques pour le déploiement de modèles 🚀 NOUVEAU : Passe en revue les conseils et les meilleures pratiques pour déployer efficacement les modèles dans les projets de vision par ordinateur, en mettant l'accent sur l'optimisation, le dépannage et la sécurité.
  • Entretenir ton modèle de vision par ordinateur 🚀 NOUVEAU : Comprendre les pratiques clés pour surveiller, entretenir et documenter les modèles de vision par ordinateur afin de garantir l'exactitude, repérer les anomalies et atténuer la dérive des données.
  • ROS Quickstart 🚀 NOUVEAU : Apprenez à intégrer YOLO avec le système d’exploitation du robot (ROS) pour la détection d’objets en temps réel dans les applications robotiques, y compris les images de nuages de points et de profondeur.

Contribue à nos guides

Les contributions de la communauté sont les bienvenues ! Si tu maîtrises un aspect particulier de Ultralytics YOLO qui n'est pas encore abordé dans nos guides, nous t'encourageons à partager ton expertise. Écrire un guide est un excellent moyen de rendre service à la communauté et de nous aider à rendre notre documentation plus complète et plus conviviale.

Pour commencer, consulte notre Guide de contribution pour savoir comment ouvrir une Pull Request (PR) 🛠️. Nous attendons avec impatience tes contributions !

Travaillons ensemble pour rendre l'écosystème Ultralytics YOLO plus robuste et plus polyvalent 🙏 !

FAQ

Comment entraîner un modèle de détection d'objets personnalisé à l'aide de Ultralytics YOLO ?

L'entraînement d'un modèle de détection d'objets personnalisé avec Ultralytics YOLO est très simple. Commence par préparer ton jeu de données au bon format et par installer le paquetage Ultralytics . Utilise le code suivant pour lancer la formation :

Exemple

from ultralytics import YOLO

model = YOLO("yolov8s.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolov8s.pt data=path/to/dataset.yaml epochs=50

Pour une mise en forme détaillée des jeux de données et des options supplémentaires, reporte-toi à notre guide Conseils pour la formation aux modèles.

Quelles mesures de performance dois-je utiliser pour évaluer mon modèle YOLO ?

L'évaluation des performances de ton modèle YOLO est cruciale pour comprendre son efficacité. Les mesures clés comprennent la précision moyenne (mAP), l'intersection sur l'union (IoU) et le score F1. Ces mesures permettent d'évaluer l'exactitude et la précision des tâches de détection d'objets. Tu peux en savoir plus sur ces mesures et sur la façon d'améliorer ton modèle en consultant notre guide YOLO Performance Metrics.

Pourquoi devrais-je utiliser Ultralytics HUB pour mes projets de vision par ordinateur ?

Ultralytics HUB est une plateforme sans code qui simplifie la gestion, la formation et le déploiement des modèles YOLO . Elle prend en charge l'intégration transparente, le suivi en temps réel et la formation sur le cloud, ce qui la rend idéale pour les débutants comme pour les professionnels. Découvre plus en détail ses fonctionnalités et comment il peut rationaliser ton flux de travail grâce à notre guide de démarrage rapide Ultralytics HUB.

Quels sont les problèmes courants rencontrés lors de la formation au modèle YOLO , et comment puis-je les résoudre ?

Les problèmes les plus courants lors de la formation des modèles YOLO sont les erreurs de formatage des données, l'inadéquation de l'architecture des modèles et l'insuffisance des données de formation. Pour y remédier, assure-toi que ton jeu de données est correctement formaté, vérifie que les versions des modèles sont compatibles et augmente tes données d'entraînement. Pour obtenir une liste complète de solutions, consulte notre guide YOLO Common Issues.

Comment puis-je déployer mon modèle YOLO pour la détection d'objets en temps réel sur les appareils périphériques ?

Le déploiement des modèles YOLO sur des appareils périphériques tels que NVIDIA Jetson et Raspberry Pi nécessite la conversion du modèle dans un format compatible tel que TensorRT ou TFLite. Suis nos guides pas à pas pour NVIDIA Jetson et Raspberry Pi afin de démarrer la détection d'objets en temps réel sur du matériel périphérique. Ces guides te guideront à travers l'installation, la configuration et l'optimisation des performances.



Créé le 2023-11-12, Mis à jour le 2024-07-10
Auteurs : abirami-vina (6), glenn-jocher (11), lakshanthad (2), ambitious-octopus (1), RizwanMunawar (7), Burhan-Q (3), ouphi (1)

Commentaires