本示例提供了简单的YOLOv5 训练和推理示例。有关这些模式和其他模式的完整文档,请参阅 "预测"、"训练"、"验证"和 "导出"文档页面。
示例
PyTorch pretrained *.pt
模型以及配置 *.yaml
文件可以传递给 YOLO()
类在python 中创建模型实例:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv5n model
model = YOLO("yolov5n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv5n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI 命令可直接运行模型:
Ultralytics YOLOv5 Publication
Ultralytics has not published a formal research paper for YOLOv5 due to the rapidly evolving nature of the models. We focus on advancing the technology and making it easier to use, rather than producing static documentation. For the most up-to-date information on YOLO architecture, features, and usage, please refer to our GitHub repository and documentation.
如果您在研究中使用YOLOv5 或 YOLOv5u,请按如下方式引用Ultralytics YOLOv5 储存库:
请注意,YOLOv5 型号是根据 AGPL-3.0和企业许可证提供。
Ultralytics YOLOv5u is an advanced version of YOLOv5, integrating the anchor-free, objectness-free split head that enhances the accuracy-speed tradeoff for real-time object detection tasks. Unlike the traditional YOLOv5, YOLOv5u adopts an anchor-free detection mechanism, making it more flexible and adaptive in diverse scenarios. For more detailed information on its features, you can refer to the YOLOv5 Overview.
YOLOv5u 的无锚点Ultralytics 头消除了对预定义锚点框的依赖,从而提高了物体检测性能。这使得检测机制更加灵活和自适应,可以更高效地处理各种物体尺寸和形状。这一改进直接促进了准确性和速度之间的平衡,使 YOLOv5u 适用于实时应用。有关其架构的更多信息,请参阅 "主要功能"部分。
是的,您可以将预先训练好的 YOLOv5u 模型用于对象检测等各种任务。这些模型支持多种模式,包括推理、验证、训练和导出。这种灵活性使用户能够在不同的操作要求中充分利用 YOLOv5u 模型的功能。有关详细概述,请查看 "支持的任务和模式"部分。
YOLOv5u 模型的性能指标因所使用的平台和硬件而异。例如,YOLOv5nu 模型在 COCO 数据集上实现了 34.3 mAP,在CPU (ONNX) 上的速度为 73.6 ms,在 A100TensorRT 上的速度为 1.06 ms。不同 YOLOv5u 模型的详细性能指标可在 "性能指标"部分找到,该部分对各种设备进行了全面比较。
您可以通过加载预先训练好的模型并使用数据集运行训练命令来训练 YOLOv5u 模型。下面是一个快速示例:
示例
有关更详细的说明,请访问 "使用示例"部分。