Cet exemple fournit des exemples simples de formation et d'inférence sur YOLOv5 . Pour une documentation complète sur ces modes et d'autres , voir les pages Predict, Train, Val et Export docs.
Exemple
PyTorch préformé *.pt
ainsi que la configuration *.yaml
peuvent être transmis à l'outil YOLO()
pour créer une instance de modèle dans python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv5n model
model = YOLO("yolov5n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv5n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Des commandes sont disponibles pour exécuter directement les modèles :
Ultralytics YOLOv5 Publication
Ultralytics n'a pas publié de document de recherche officiel pour YOLOv5 en raison de la nature rapidement évolutive des modèles. Nous nous concentrons sur l'avancement de la technologie et la facilitation de son utilisation, plutôt que sur la production d'une documentation statique. Pour obtenir les informations les plus récentes sur l'architecture, les fonctionnalités et l'utilisation de YOLO , tu peux te référer à notre dépôt GitHub et à notre documentation.
Si tu utilises YOLOv5 ou YOLOv5u dans ta recherche, cite le dépôt Ultralytics YOLOv5 comme suit :
Note que les modèles YOLOv5 sont fournis sous les licences AGPL-3.0 et Enterprise.
Ultralytics YOLOv5u est une version avancée de YOLOv5, intégrant la tête de division sans ancrage et sans objet qui améliore le compromis précision-vitesse pour les tâches de détection d'objets en temps réel. Contrairement à la version traditionnelle YOLOv5, YOLOv5u adopte un mécanisme de détection sans ancrage, ce qui le rend plus flexible et adaptable à divers scénarios. Pour des informations plus détaillées sur ses caractéristiques, tu peux te référer à l'aperçuYOLOv5 .
La tête Ultralytics sans ancrage de YOLOv5u améliore les performances de la détection d'objets en éliminant la dépendance à l'égard des boîtes d'ancrage prédéfinies. Il en résulte un mécanisme de détection plus souple et plus adaptatif qui peut gérer différentes tailles et formes d'objets avec une plus grande efficacité. Cette amélioration contribue directement à un compromis équilibré entre la précision et la vitesse, ce qui rend YOLOv5u adapté aux applications en temps réel. Pour en savoir plus sur son architecture, consulte la section Caractéristiques principales.
Oui, tu peux utiliser des modèles YOLOv5u pré-entraînés pour diverses tâches telles que la détection d'objets. Ces modèles prennent en charge plusieurs modes, notamment l'inférence, la validation, l'entraînement et l'exportation. Cette flexibilité permet aux utilisateurs d'exploiter les capacités des modèles YOLOv5u pour répondre à différents besoins opérationnels. Pour un aperçu détaillé, consulte la section Tâches et modes pris en charge.
Les mesures de performance des modèles YOLOv5u varient en fonction de la plateforme et du matériel utilisés. Par exemple, le modèle YOLOv5nu atteint 34,3 mAP sur l'ensemble de données COCO avec une vitesse de 73,6 ms sur CPU (ONNX) et 1,06 ms sur A100 TensorRT. Les mesures détaillées des performances des différents modèles YOLOv5u se trouvent dans la section Mesures des performances, qui fournit une comparaison complète entre divers appareils.
Tu peux entraîner un modèle YOLOv5u en chargeant un modèle pré-entraîné et en exécutant la commande d'entraînement avec ton ensemble de données. Voici un exemple rapide :
Exemple
Pour des instructions plus détaillées, visite la section Exemples d'utilisation.