Modes Ultralytics YOLO26

Introduction
Ultralytics YOLO26 n'est pas seulement un autre modèle de détection d'objets ; c'est un framework polyvalent conçu pour couvrir l'ensemble du cycle de vie des modèles d'apprentissage automatique—de l'ingestion de données et l'entraînement du modèle à la validation, au déploiement et au tracking en conditions réelles. Chaque mode a un objectif spécifique et est conçu pour vous offrir la flexibilité et l'efficacité requises pour différentes tâches et cas d'utilisation.
Regarder : Tutoriel sur les modes Ultralytics : Entraînement, Validation, Prédiction, Exportation et Benchmark.
Aperçu des modes
Comprendre les différents modes pris en charge par Ultralytics YOLO26 est essentiel pour tirer le meilleur parti de vos modèles :
- Mode Entraînement : Affinez votre modèle sur des ensembles de données personnalisés ou préchargés.
- Mode Val : Un point de contrôle post-formation pour valider les performances du modèle.
- Mode Prédiction : Libérez la puissance prédictive de votre modèle sur des données réelles.
- Mode Exportation : Préparez votre modèle au déploiement dans différents formats.
- Mode Suivi : Étendez votre modèle de détection d’objets aux applications de suivi en temps réel.
- Mode Benchmark : Analysez la vitesse et la précision de votre modèle dans divers environnements de déploiement.
Ce guide complet vise à vous donner un aperçu et des informations pratiques sur chaque mode, vous aidant à exploiter tout le potentiel de YOLO26.
Entraîner
Le mode train est utilisé pour entraîner un modèle YOLO26 sur un jeu de données personnalisé. Dans ce mode, le modèle est entraîné en utilisant le jeu de données et les hyperparamètres spécifiés. Le processus d'entraînement implique l'optimisation des paramètres du modèle afin qu'il puisse prédire avec précision les classes et les emplacements des objets dans une image. L'entraînement est essentiel pour créer des modèles capables de reconnaître des objets spécifiques pertinents pour votre application.
Valider
Le mode val est utilisé pour valider un modèle YOLO26 après son entraînement. Dans ce mode, le modèle est évalué sur un ensemble de validation pour mesurer sa précision et ses performances de généralisation. La validation aide à identifier les problèmes potentiels comme le surapprentissage et fournit des métriques telles que la précision moyenne (mAP) pour quantifier les performances du modèle. Ce mode est crucial pour l'ajustement des hyperparamètres et l'amélioration de l'efficacité globale du modèle.
Prédire
Le mode predict est utilisé pour faire des prédictions en utilisant un modèle YOLO26 entraîné sur de nouvelles images ou vidéos. Dans ce mode, le modèle est chargé à partir d'un fichier de point de contrôle, et l'utilisateur peut fournir des images ou des vidéos pour effectuer l'inférence. Le modèle identifie et localise les objets dans les médias d'entrée, le rendant prêt pour les applications du monde réel. Le mode predict est la passerelle pour appliquer votre modèle entraîné à la résolution de problèmes pratiques.
Exporter
Le mode export est utilisé pour convertir un modèle YOLO26 en formats adaptés au déploiement sur différentes plateformes et appareils. Ce mode transforme votre modèle PyTorch en formats optimisés comme ONNX, TensorRT ou CoreML, permettant le déploiement dans des environnements de production. L'exportation est essentielle pour intégrer votre modèle avec diverses applications logicielles ou dispositifs matériels, entraînant souvent des améliorations significatives des performances.
Suivre
Le mode track étend les capacités de détection d'objets de YOLO26 pour track les objets à travers des images vidéo ou des flux en direct. Ce mode est particulièrement précieux pour les applications nécessitant une identification persistante d'objets, telles que les systèmes de surveillance ou les voitures autonomes. Le mode track implémente des algorithmes sophistiqués comme ByteTrack pour maintenir l'identité des objets à travers les images, même lorsque les objets disparaissent temporairement de la vue.
Benchmark
Le mode benchmark profile la vitesse et la précision de divers formats d'exportation pour YOLO26. Ce mode fournit des métriques complètes sur la taille du modèle, la précision (mAP50-95 pour les tâches de détection ou accuracy_top5 pour la classification), et le temps d'inférence sur différents formats comme ONNX, OpenVINO et TensorRT. Le benchmarking vous aide à sélectionner le format d'exportation optimal en fonction de vos exigences spécifiques en matière de vitesse et de précision dans votre environnement de déploiement.
FAQ
Comment entraîner un modèle de détection d'objets personnalisé avec Ultralytics YOLO26 ?
L'entraînement d'un modèle de détection d'objets personnalisé avec Ultralytics YOLO26 implique l'utilisation du mode train. Vous avez besoin d'un jeu de données formaté au format YOLO, contenant des images et des fichiers d'annotation correspondants. Utilisez la commande suivante pour démarrer le processus d'entraînement :
Exemple
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640
Pour des instructions plus détaillées, vous pouvez consulter le Guide d'entraînement Ultralytics.
Quelles métriques Ultralytics YOLO26 utilise-t-il pour valider les performances du modèle ?
Ultralytics YOLO26 utilise diverses métriques pendant le processus de validation pour évaluer les performances du modèle. Celles-ci incluent :
- mAP (précision moyenne) : Ceci évalue la précision de la détection d'objets.
- IOU (Intersection sur Union) : mesure le chevauchement entre les boîtes englobantes prédites et la vérité terrain.
- Précision et Rappel : la précision mesure le rapport entre les détections de vrais positifs et le total des positifs détectés, tandis que le rappel mesure le rapport entre les détections de vrais positifs et le total des positifs réels.
Vous pouvez exécuter la commande suivante pour démarrer la validation :
Exemple
from ultralytics import YOLO
# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml
Consultez le Guide de validation pour plus de détails.
Comment puis-je exporter mon modèle YOLO26 pour le déploiement ?
Ultralytics YOLO26 offre une fonctionnalité d'exportation pour convertir votre modèle entraîné en divers formats de déploiement tels que ONNX, TensorRT, CoreML, et plus encore. Utilisez l'exemple suivant pour exporter votre modèle :
Exemple
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx
Des étapes détaillées pour chaque format d'exportation sont disponibles dans le Guide d'exportation.
Quel est le but du mode benchmark dans Ultralytics YOLO26 ?
Le mode benchmark dans Ultralytics YOLO26 est utilisé pour analyser la vitesse et la précision de divers formats d'exportation tels que ONNX, TensorRT et OpenVINO. Il fournit des mesures telles que la taille du modèle, mAP50-95 pour la détection d'objets et le temps d'inférence sur différentes configurations matérielles, vous aidant à choisir le format le plus adapté à vos besoins de déploiement.
Exemple
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0
Pour plus de détails, consultez le Guide de référence.
Comment puis-je effectuer le suivi d'objets en temps réel avec Ultralytics YOLO26 ?
Le suivi d'objets en temps réel peut être réalisé en utilisant le mode track dans Ultralytics YOLO26. Ce mode étend les capacités de détection d'objets pour track les objets à travers des images vidéo ou des flux en direct. Utilisez l'exemple suivant pour activer le tracking :
Exemple
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4
Pour des instructions détaillées, consultez le Guide de suivi.