Cet exemple fournit des exemples simples de formation et d'inférence sur YOLOv5 . Pour une documentation complète sur ces modes et d'autres , voir les pages Predict, Train, Val et Export docs.
Exemple
PyTorch pretrained *.pt
ainsi que la configuration *.yaml
peuvent être transmis à l'outil YOLO()
pour créer une instance de modèle dans python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv5n model
model = YOLO("yolov5n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv5n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Des commandes sont disponibles pour exécuter directement les modèles :
Ultralytics YOLOv5 Publication
Ultralytics has not published a formal research paper for YOLOv5 due to the rapidly evolving nature of the models. We focus on advancing the technology and making it easier to use, rather than producing static documentation. For the most up-to-date information on YOLO architecture, features, and usage, please refer to our GitHub repository and documentation.
Si tu utilises YOLOv5 ou YOLOv5u dans ta recherche, cite le dépôt Ultralytics YOLOv5 comme suit :
Note que les modèles YOLOv5 sont fournis sous les licences AGPL-3.0 et Enterprise.
Ultralytics YOLOv5u is an advanced version of YOLOv5, integrating the anchor-free, objectness-free split head that enhances the accuracy-speed tradeoff for real-time object detection tasks. Unlike the traditional YOLOv5, YOLOv5u adopts an anchor-free detection mechanism, making it more flexible and adaptive in diverse scenarios. For more detailed information on its features, you can refer to the YOLOv5 Overview.
La tête Ultralytics sans ancrage de YOLOv5u améliore les performances de la détection d'objets en éliminant la dépendance à l'égard des boîtes d'ancrage prédéfinies. Il en résulte un mécanisme de détection plus souple et plus adaptatif qui peut gérer différentes tailles et formes d'objets avec une plus grande efficacité. Cette amélioration contribue directement à un compromis équilibré entre la précision et la vitesse, ce qui rend YOLOv5u adapté aux applications en temps réel. Pour en savoir plus sur son architecture, consulte la section Caractéristiques principales.
Oui, tu peux utiliser des modèles YOLOv5u pré-entraînés pour diverses tâches telles que la détection d'objets. Ces modèles prennent en charge plusieurs modes, notamment l'inférence, la validation, l'entraînement et l'exportation. Cette flexibilité permet aux utilisateurs d'exploiter les capacités des modèles YOLOv5u pour répondre à différents besoins opérationnels. Pour un aperçu détaillé, consulte la section Tâches et modes pris en charge.
Les mesures de performance des modèles YOLOv5u varient en fonction de la plateforme et du matériel utilisés. Par exemple, le modèle YOLOv5nu atteint 34,3 mAP sur l'ensemble de données COCO avec une vitesse de 73,6 ms sur CPU (ONNX) et 1,06 ms sur A100 TensorRT. Les mesures détaillées des performances des différents modèles YOLOv5u se trouvent dans la section Mesures des performances, qui fournit une comparaison complète entre divers appareils.
Tu peux entraîner un modèle YOLOv5u en chargeant un modèle pré-entraîné et en exécutant la commande d'entraînement avec ton ensemble de données. Voici un exemple rapide :
Exemple
Pour des instructions plus détaillées, visite la section Exemples d'utilisation.