Passer au contenu

Modes Ultralytics YOLO11

Écosystème et intégrations Ultralytics YOLO

Introduction

Ultralytics YOLO11 n’est pas qu’un simple modèle de détection d’objets ; il s’agit d’un framework polyvalent conçu pour couvrir l’ensemble du cycle de vie des modèles de machine learning : de l’ingestion des données et de la formation des modèles à la validation, au déploiement et au suivi en conditions réelles. Chaque mode a un objectif spécifique et est conçu pour vous offrir la flexibilité et l’efficacité nécessaires pour différentes tâches et différents cas d’utilisation.



Regarder : Tutoriel sur les modes Ultralytics : Entraînement, Validation, Prédiction, Exportation et Benchmark.

Aperçu des modes

Il est essentiel de comprendre les différents modes pris en charge par Ultralytics YOLO11 pour tirer le meilleur parti de vos modèles :

  • Mode Entraînement : Affinez votre modèle sur des ensembles de données personnalisés ou préchargés.
  • Mode Val : Un point de contrôle post-formation pour valider les performances du modèle.
  • Mode Prédiction : Libérez la puissance prédictive de votre modèle sur des données réelles.
  • Mode Exportation : Préparez votre modèle au déploiement dans différents formats.
  • Mode Suivi : Étendez votre modèle de détection d’objets aux applications de suivi en temps réel.
  • Mode Benchmark : Analysez la vitesse et la précision de votre modèle dans divers environnements de déploiement.

Ce guide complet vise à vous donner un aperçu et des informations pratiques sur chaque mode, vous aidant ainsi à exploiter tout le potentiel de YOLO11.

Entraîner

Le mode Train est utilisé pour entraîner un modèle YOLO11 sur un jeu de données personnalisé. Dans ce mode, le modèle est entraîné en utilisant le jeu de données et les hyperparamètres spécifiés. Le processus d'entraînement implique l'optimisation des paramètres du modèle afin qu'il puisse prédire avec précision les classes et les emplacements des objets dans une image. L'entraînement est essentiel pour créer des modèles capables de reconnaître des objets spécifiques pertinents pour votre application.

Exemples d’entraînement

Valider

Le mode Val est utilisé pour valider un modèle YOLO11 après son entraînement. Dans ce mode, le modèle est évalué sur un ensemble de validation afin de mesurer sa précision et ses performances de généralisation. La validation permet d'identifier les problèmes potentiels tels que le surapprentissage et fournit des mesures telles que la précision moyenne moyenne (mAP) pour quantifier les performances du modèle. Ce mode est essentiel pour ajuster les hyperparamètres et améliorer l'efficacité globale du modèle.

Exemples Val

Prédire

Le mode Predict est utilisé pour faire des prédictions en utilisant un modèle YOLO11 entraîné sur de nouvelles images ou vidéos. Dans ce mode, le modèle est chargé à partir d'un fichier de point de contrôle, et l'utilisateur peut fournir des images ou des vidéos pour effectuer l'inférence. Le modèle identifie et localise les objets dans le média d'entrée, le rendant prêt pour les applications du monde réel. Le mode Predict est la passerelle pour appliquer votre modèle entraîné afin de résoudre des problèmes pratiques.

Exemples de prédiction

Exporter

Le mode d'exportation est utilisé pour convertir un modèle YOLO11 dans des formats adaptés au déploiement sur différentes plateformes et appareils. Ce mode transforme votre modèle PyTorch en formats optimisés tels que ONNX, TensorRT ou CoreML, permettant ainsi le déploiement dans des environnements de production. L'exportation est essentielle pour intégrer votre modèle à diverses applications logicielles ou périphériques matériels, ce qui se traduit souvent par des améliorations significatives des performances.

Exemples d’exportation

Suivre

Le mode Track étend les capacités de détection d'objets de YOLO11 pour suivre les objets à travers les trames vidéo ou les flux en direct. Ce mode est particulièrement utile pour les applications nécessitant une identification persistante des objets, telles que les systèmes de surveillance ou les voitures autonomes. Le mode Track implémente des algorithmes sophistiqués comme ByteTrack pour maintenir l'identité des objets à travers les trames, même lorsque les objets disparaissent temporairement de la vue.

Exemples de suivi

Benchmark

Le mode d'évaluation comparative profile la vitesse et la précision de divers formats d'exportation pour YOLO11. Ce mode fournit des mesures complètes sur la taille du modèle, la précision (mAP50-95 pour les tâches de détection ou accuracy_top5 pour la classification) et le temps d'inférence à travers différents formats comme ONNX, OpenVINO, et TensorRT. L'évaluation comparative vous aide à sélectionner le format d'exportation optimal en fonction de vos exigences spécifiques de vitesse et de précision dans votre environnement de déploiement.

Exemples de benchmarks

FAQ

Comment entraîner un modèle de détection d'objets personnalisé avec Ultralytics YOLO11 ?

L'entraînement d'un modèle de détection d'objets personnalisé avec Ultralytics YOLO11 implique l'utilisation du mode d'entraînement. Vous avez besoin d'un jeu de données formaté au format YOLO, contenant des images et des fichiers d'annotation correspondants. Utilisez la commande suivante pour démarrer le processus d'entraînement :

Exemple

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Pour des instructions plus détaillées, vous pouvez consulter le Guide d'entraînement Ultralytics.

Quelles métriques Ultralytics YOLO11 utilise-t-il pour valider les performances du modèle ?

Ultralytics YOLO11 utilise diverses métriques pendant le processus de validation pour évaluer les performances du modèle. Ceux-ci inclus :

  • mAP (précision moyenne moyenne) : ceci évalue la précision de la détection d'objets.
  • IOU (Intersection sur Union) : mesure le chevauchement entre les boîtes englobantes prédites et la vérité terrain.
  • Précision et Rappel : la précision mesure le rapport entre les détections de vrais positifs et le total des positifs détectés, tandis que le rappel mesure le rapport entre les détections de vrais positifs et le total des positifs réels.

Vous pouvez exécuter la commande suivante pour démarrer la validation :

Exemple

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Consultez le Guide de validation pour plus de détails.

Comment puis-je exporter mon modèle YOLO11 pour le déploiement ?

Ultralytics YOLO11 offre une fonctionnalité d'exportation pour convertir votre modèle entraîné dans différents formats de déploiement tels que ONNX, TensorRT, CoreML, et plus encore. Utilisez l'exemple suivant pour exporter votre modèle :

Exemple

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Des étapes détaillées pour chaque format d'exportation sont disponibles dans le Guide d'exportation.

Quel est l’objectif du mode benchmark dans Ultralytics YOLO11 ?

Le mode benchmark dans Ultralytics YOLO11 est utilisé pour analyser la vitesse et précision de divers formats d'exportation tels que ONNX, TensorRT et OpenVINO. Il fournit des mesures telles que la taille du modèle, mAP50-95 pour la détection d'objets et le temps d'inférence sur différentes configurations matérielles, vous aidant à choisir le format le plus adapté à vos besoins de déploiement.

Exemple

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Pour plus de détails, consultez le Guide de référence.

Comment puis-je effectuer un suivi d’objets en temps réel à l’aide d’Ultralytics YOLO11 ?

Le suivi d'objets en temps réel peut être réalisé en utilisant le mode de suivi dans Ultralytics YOLO11. Ce mode étend les capacités de détection d'objets pour suivre les objets à travers les trames vidéo ou les flux en direct. Utilisez l'exemple suivant pour activer le suivi :

Exemple

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Pour des instructions détaillées, consultez le Guide de suivi.



📅 Créé il y a 1 an ✏️ Mis à jour il y a 5 mois

Commentaires