跳至内容

YOLOv7:可训练的免费书包

YOLOv7 是最先进的实时物体检测器,在 5 FPS 到 160 FPS 的范围内,其速度和准确性都超过了所有已知的物体检测器。在所有已知的实时物体检测器中,YOLOv7 的准确率最高(56.8% AP),在 GPU V100 上达到 30 FPS 或更高。此外,YOLOv7 在速度和准确性上都优于 YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5 等其他物体检测器。该模型是在 MS COCO 数据集上从头开始训练的,没有使用任何其他数据集或预先训练的权重。YOLOv7 的源代码可在 GitHub 上获取。

YOLOv7 与 SOTA 物体探测器的比较 比较最先进的物体探测器。 从表 2 中的结果可以看出,我们提出的方法在速度和准确性之间的权衡是最好的。如果将 YOLOv7-tiny-SiLU 与YOLOv5-N (r6.1) 进行比较,我们的方法速度快 127 fps,AP 精确度高 10.7%。此外,YOLOv7 的帧速率为 161 fps,AP 率为 51.4%,而 PPYOLOE-L 的帧速率仅为 78 fps。在参数使用方面,YOLOv7 比 PPYOLOE-L 少 41%。如果将推理速度为 114 帧/秒的 YOLOv7-X 与推理速度为 99 帧/秒的YOLOv5-L (r6.1) 相比,YOLOv7-X 可将 AP 提高 3.9%。如果将 YOLOv7-X 与规模相似的YOLOv5-X (r6.1) 相比,YOLOv7-X 的推理速度要快 31 fps。此外,在参数和计算量方面,YOLOv7-X 比YOLOv5-X (r6.1) 减少了 22% 的参数和 8% 的计算量,但 AP 提高了 2.2% (资料来源).

概述

实时物体检测是多物体跟踪、自动驾驶、机器人和医学图像分析等许多计算机视觉系统的重要组成部分。近年来,实时物体检测的发展主要集中在设计高效架构和提高各种 CPU、GPU 和神经处理单元(NPU)的推理速度上。YOLOv7 支持从边缘到云端的移动 GPU 和 GPU 设备。

传统的实时物体检测器侧重于结构优化,而 YOLOv7 则不同,它侧重于训练过程的优化。其中包括一些模块和优化方法,目的是在不增加推理成本的情况下提高物体检测的准确性,这一概念被称为 "可训练的无用包"。

主要功能

YOLOv7 引入了几项关键功能:

  1. 模型重新参数化:YOLOv7 提出了一种有计划的重新参数化模型,这是一种适用于不同网络层的策略,具有梯度传播路径的概念。

  2. 动态标签分配:多输出层模型的训练提出了一个新问题:"如何为不同分支的输出分配动态目标?为了解决这个问题,YOLOv7 引入了一种新的标签分配方法,即从粗到细的引导标签分配法。

  3. 扩展和复合缩放YOLOv7 为实时对象检测器提出了 "扩展 "和 "复合缩放 "方法,可有效利用参数和计算。

  4. 效率:YOLOv7 提出的方法能有效减少最先进的实时物体检测器约 40% 的参数和 50% 的计算量,推理速度更快,检测精度更高。

使用示例

截至本文撰写之时,Ultralytics 目前不支持 YOLOv7 模型。因此,任何有兴趣使用 YOLOv7 的用户都需要直接访问 YOLOv7 GitHub 存储库,以获取安装和使用说明。

下面简要介绍使用 YOLOv7 的典型步骤:

  1. 访问 YOLOv7 GitHub 代码库:https://github.com/WongKinYiu/yolov7。

  2. 按照 README 文件中提供的说明进行安装。这通常包括克隆版本库、安装必要的依赖项和设置任何必要的环境变量。

  3. 安装完成后,您可以根据资源库中提供的使用说明训练和使用模型。这通常包括准备数据集、配置模型参数、训练模型,然后使用训练好的模型执行对象检测。

请注意,具体步骤可能会根据您的具体使用情况和 YOLOv7 代码库的当前状态而有所不同。因此,强烈建议直接参考 YOLOv7 GitHub 代码库中提供的说明。

我们对由此造成的不便深表歉意,并将努力在支持 YOLOv7 后更新本文档,提供Ultralytics 的使用示例。

引文和致谢

我们衷心感谢 YOLOv7 作者在实时物体检测领域做出的重大贡献:

@article{wang2022yolov7,
  title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

YOLOv7 的原始论文可在arXiv 上找到。作者公开了他们的工作,代码库可以在GitHub 上访问。我们感谢他们为推动这一领域的发展和让更多人了解他们的工作所做的努力。



创建于 2023-11-12,更新于 2024-01-07
作者:glenn-jocher(5)、sergiuwaxmann(1)

评论