Skip to content

Ultralytics YOLO11 Modes

Ultralytics YOLO écosystème et intégrations

Introduction

Ultralytics YOLO11 n'est pas un simple modèle de détection d'objets ; il s'agit d'un cadre polyvalent conçu pour couvrir l'ensemble du cycle de vie des modèles d'apprentissage automatique, de l'ingestion des données et de l'entraînement des modèles à la validation, au déploiement et au suivi dans le monde réel. Chaque mode répond à un objectif spécifique et est conçu pour vous offrir la flexibilité et l'efficacité requises pour différentes tâches et différents cas d'utilisation.



Regarder : Ultralytics Tutoriel des modes : Entraînement, validation, prédiction, exportation et analyse comparative.

Les modes en un coup d'œil

Il est essentiel de comprendre les différents modes pris en charge par Ultralytics YOLO11 pour tirer le meilleur parti de vos modèles :

  • Mode entraînement: Affinez votre modèle sur des ensembles de données personnalisés ou préchargés.
  • Mode Val: Un point de contrôle post-entraînement pour valider les performances du modèle.
  • Mode prédictif: Libérez la puissance prédictive de votre modèle sur des données réelles.
  • Mode d'exportation: Rendez votre modèle prêt à être déployé dans différents formats.
  • Mode suivi: Étendez votre modèle de détection d'objets aux applications de suivi en temps réel.
  • Mode Benchmark: Analysez la vitesse et la précision de votre modèle dans divers environnements de déploiement.

Ce guide complet a pour but de vous donner une vue d'ensemble et des informations pratiques sur chaque mode, afin de vous aider à exploiter tout le potentiel de YOLO11.

Train

Le mode Train est utilisé pour entraîner un modèle YOLO11 sur un ensemble de données personnalisé. Dans ce mode, le modèle est entraîné à l'aide de l'ensemble de données et des hyperparamètres spécifiés. Le processus d'entraînement consiste à optimiser les paramètres du modèle afin qu'il puisse prédire avec précision les classes et les emplacements des objets dans une image. L'entraînement est essentiel pour créer des modèles capables de reconnaître des objets spécifiques pertinents pour votre application.

Exemples de trains

Val

Le mode Val est utilisé pour valider un modèle YOLO11 après qu'il ait été entraîné. Dans ce mode, le modèle est évalué sur un ensemble de validation pour mesurer sa précision et ses performances de généralisation. La validation permet d'identifier les problèmes potentiels tels que le surajustement et fournit des mesures telles que la précision moyenne (mAP) pour quantifier les performances du modèle. Ce mode est essentiel pour régler les hyperparamètres et améliorer l'efficacité globale du modèle.

Exemples de val

Prévoir

Le mode Prédire est utilisé pour faire des prédictions à l'aide d'un modèle YOLO11 entraîné sur de nouvelles images ou vidéos. Dans ce mode, le modèle est chargé à partir d'un fichier de point de contrôle et l'utilisateur peut fournir des images ou des vidéos pour effectuer l'inférence. Le modèle identifie et localise les objets dans le média d'entrée, ce qui le rend prêt pour des applications dans le monde réel. Le mode prédictif est la porte d'entrée vers l'application de votre modèle formé pour résoudre des problèmes pratiques.

Prévoir des exemples

Exportation

Le mode d'exportation est utilisé pour convertir un modèle YOLO11 dans des formats adaptés au déploiement sur différentes plateformes et appareils. Ce mode transforme votre modèle PyTorch en formats optimisés tels que ONNX, TensorRT ou CoreML, permettant un déploiement dans des environnements de production. L'exportation est essentielle pour l'intégration de votre modèle dans diverses applications logicielles ou dispositifs matériels, ce qui se traduit souvent par des améliorations significatives des performances.

Exemples d'exportation

Poursuivre

Le mode Track étend les capacités de détection d'objets de YOLO11 pour suivre des objets à travers des images vidéo ou des flux en direct. Ce mode est particulièrement utile pour les applications nécessitant une identification persistante des objets, telles que les systèmes de surveillance ou les voitures autonomes. Le mode Track met en œuvre des algorithmes sophistiqués tels que ByteTrack pour maintenir l'identité des objets à travers les images, même lorsque les objets disparaissent temporairement de la vue.

Exemples de pistes

Repère

Le mode Benchmark profile la vitesse et la précision de différents formats d'exportation pour YOLO11. Ce mode fournit des mesures complètes sur la taille du modèle, la précision (mAP50-95 pour les tâches de détection ou accuracy_top5 pour la classification) et le temps d'inférence pour différents formats comme ONNX, OpenVINOet TensorRT. L'analyse comparative vous aide à sélectionner le format d'exportation optimal en fonction de vos exigences spécifiques en matière de vitesse et de précision dans votre environnement de déploiement.

Exemples de référence

FAQ

Comment entraîner un modèle de détection d'objets personnalisé avec Ultralytics YOLO11 ?

L'entraînement d'un modèle de détection d'objets personnalisé avec Ultralytics YOLO11 implique l'utilisation du mode d'entraînement. Vous avez besoin d'un ensemble de données au format YOLO , contenant des images et les fichiers d'annotation correspondants. Utilisez la commande suivante pour lancer le processus de formation :

Exemple

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Pour des instructions plus détaillées, vous pouvez consulter le guide de formationUltralytics .

Quels sont les paramètres utilisés par Ultralytics YOLO11 pour valider les performances du modèle ?

Ultralytics YOLO11 utilise diverses mesures au cours du processus de validation pour évaluer la performance du modèle. Il s'agit notamment de

  • mAP (mean Average Precision): Elle évalue la précision de la détection des objets.
  • IOU (Intersection over Union): Mesure le chevauchement entre les boîtes de délimitation prédites et les boîtes de délimitation de la vérité de terrain.
  • Précision et rappel: La précision mesure le rapport entre le nombre de vrais positifs et le nombre total de positifs détectés, tandis que le rappel mesure le rapport entre le nombre de vrais positifs et le nombre total de positifs réels.

Vous pouvez exécuter la commande suivante pour lancer la validation :

Exemple

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Pour plus de détails, voir le guide de validation.

Comment puis-je exporter mon modèle YOLO11 pour le déployer ?

Ultralytics YOLO11 offre une fonctionnalité d'exportation permettant de convertir votre modèle entraîné dans divers formats de déploiement tels que ONNX, TensorRT, CoreML, et bien d'autres encore. Utilisez l'exemple suivant pour exporter votre modèle :

Exemple

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Les étapes détaillées pour chaque format d'exportation se trouvent dans le Guide des exportations.

A quoi sert le mode benchmark dans Ultralytics YOLO11 ?

Le mode Benchmark du site Ultralytics YOLO11 est utilisé pour analyser la vitesse et la qualité des données. précision de différents formats d'exportation tels que ONNX, TensorRT, et OpenVINO. Il fournit des mesures telles que la taille du modèle, mAP50-95 pour la détection d'objets et le temps d'inférence pour différentes configurations matérielles, ce qui vous aidera à choisir le format le plus adapté à vos besoins de déploiement.

Exemple

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Pour plus de détails, reportez-vous au guide d'évaluation des performances.

Comment puis-je effectuer un suivi d'objet en temps réel à l'aide de Ultralytics YOLO11 ?

Le suivi d'objets en temps réel peut être réalisé à l'aide du mode "track" sur le site Ultralytics YOLO11 . Ce mode étend les capacités de détection d'objets pour suivre les objets sur les images vidéo ou les flux en direct. Utilisez l'exemple suivant pour activer le suivi :

Exemple

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Pour des instructions détaillées, consultez le Guide de la piste.

📅C réé il y a 1 an ✏️ Mis à jour il y a 4 jours

Commentaires