跳至内容

YOLOv5 快速入门 🚀

使用Ultralytics YOLOv5,开始进入实时对象检测的动态领域!本指南是人工智能爱好者和专业人士掌握YOLOv5 的全面起点。从初始设置到高级培训技术,我们都会为您一一介绍。本指南结束时,您将掌握YOLOv5 运用到您的项目中的知识,并自信地使用最先进的深度学习方法。让我们点燃引擎,翱翔于YOLOv5 之中!

安装

克隆YOLOv5 资源库并建立环境,为启动做好准备。这将确保所有必要的要求都已安装。检查是否有 Python.8.0PyTorch.8准备就绪。这些基础工具对于有效运行YOLOv5 至关重要。

git clone https://github.com/ultralytics/yolov5 # clone repository
cd yolov5
pip install -r requirements.txt # install dependencies

通过PyTorch Hub 进行推理

体验YOLOv5 PyTorch Hub推断的简便性,模型可从最新的YOLOv5 版本中无缝下载。这种方法利用了 PyTorch的强大功能,轻松加载和执行模型,从而直接获得预测结果。

import torch

# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s")  # Can be 'yolov5n' - 'yolov5x6', or 'custom'

# Inference on images
img = "https://ultralytics.com/images/zidane.jpg"  # Can be a file, Path, PIL, OpenCV, numpy, or list of images

# Run inference
results = model(img)

# Display results
results.print()  # Other options: .show(), .save(), .crop(), .pandas(), etc. Explore these in the Predict mode documentation.

使用 detect.py 进行推理

线束 detect.py 用途广泛 推论 在各种来源上。它能自动获取 模型 从最新的YOLOv5 释放 并轻松保存结果。该脚本非常适合命令行使用,并可将YOLOv5 集成到更大的系统中,支持图像、视频、目录、网络摄像头等输入,甚至还支持以下功能 直播流.

python detect.py --weights yolov5s.pt --source 0                              # webcam
python detect.py --weights yolov5s.pt --source image.jpg                      # image
python detect.py --weights yolov5s.pt --source video.mp4                      # video
python detect.py --weights yolov5s.pt --source screen                         # screenshot
python detect.py --weights yolov5s.pt --source path/                          # directory
python detect.py --weights yolov5s.pt --source list.txt                       # list of images
python detect.py --weights yolov5s.pt --source list.streams                   # list of streams
python detect.py --weights yolov5s.pt --source 'path/*.jpg'                   # glob pattern
python detect.py --weights yolov5s.pt --source 'https://youtu.be/LNwODJXcvt4' # YouTube video
python detect.py --weights yolov5s.pt --source 'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream

培训

复制YOLOv5 COCO 数据集 基准 培训说明 下面。必要的 模型数据集 (比如 coco128.yaml 或完整的 coco.yaml) 直接从最新的YOLOv5 释放.在 V100 上培训 YOLOv5n/s/m/l/x GPU 一般分别需要 1/2/4/6/8 天(注意 GPU GPU 培训 更快地运行)。通过使用尽可能高的 --batch-size 或使用 --batch-size -1 为YOLOv5 自动批处理 功能,它能自动找到最佳 批量大小.以下批量大小是 V100-16GB GPU 的理想选择。请参考我们的 配置指南 有关模型配置文件 (*.yaml).

# Train YOLOv5n on COCO128 for 3 epochs
python train.py --data coco128.yaml --epochs 3 --weights yolov5n.pt --batch-size 128

# Train YOLOv5s on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5s.yaml --batch-size 64

# Train YOLOv5m on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5m.yaml --batch-size 40

# Train YOLOv5l on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5l.yaml --batch-size 24

# Train YOLOv5x on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5x.yaml --batch-size 16

YOLOv5 训练曲线,显示 COCO 数据集上不同模型大小(n、s、m、l、x)的 mAP 和损失指标的历时曲线

总之,YOLOv5 不仅是最先进的物体检测工具,而且还证明了机器学习在通过视觉理解改变我们与世界交互方式方面的力量。在您阅读本指南并开始将YOLOv5 应用到您的项目中时,请记住您正处于技术革命的前沿,能够在计算机视觉领域取得非凡的成就。如果您需要进一步的见解或来自其他视觉专家的支持,我们邀请您访问我们的GitHub 存储库,这里有一个蓬勃发展的开发人员和研究人员社区。探索更多资源,如用于数据集管理和无代码模型训练的Ultralytics HUB,或查看我们的解决方案页面,了解真实世界的应用和灵感。不断探索,不断创新,享受YOLOv5 带来的奇迹。检测愉快!🌠🔍

📅创建于 1 年前 ✏️已更新 16 天前

评论