跳至内容

YOLOv4:高速、精确的物体探测

欢迎访问Ultralytics YOLOv4 文档页面,YOLOv4 是由 Alexey Bochkovskiy 于 2020 年在https://github.com/AlexeyAB/darknet 推出的最先进的实时物体检测器YOLOv4 的设计在速度和精确度之间实现了最佳平衡,是许多应用的理想选择。

YOLOv4 架构图 YOLOv4 架构图.展示 YOLOv4 复杂的网络设计,包括主干、颈部和头部组件及其相互连接的层,以实现最佳的实时目标检测。

导言

YOLOv4 是 You Only Look Once 版本 4 的缩写。它是一种实时对象检测模型,旨在解决YOLO 之前版本(如YOLOv3)和其他对象检测模型的局限性。与其他基于卷积神经网络(CNN)的物体检测器不同,YOLOv4 不仅适用于推荐系统,还适用于独立的流程管理和减少人工输入。它可在传统图形处理器(GPU)上运行,以合理的价格实现大规模使用,其设计可在传统 GPU 上实时运行,同时只需要一个这样的 GPU 进行训练。

建筑学

YOLOv4 利用多项创新功能共同优化其性能。这些功能包括加权序列连接 (WRC)、跨阶段部分连接 (CSP)、交叉迷你批归一化 (CmBN)、自对抗训练 (SAT)、误激活、马赛克数据增强、DropBlock 正则化和 CIoU 损失。这些功能结合在一起,达到了最先进的效果。

典型的物体检测器由几个部分组成,包括输入、主干、颈部和头部。YOLOv4 的骨干是在 ImageNet 上预先训练好的,用于预测物体的类别和边界框。骨干可以来自多个模型,包括 VGG、ResNet、ResNeXt 或 DenseNet。检测器的颈部用于收集不同阶段的特征图,通常包括几条自下而上的路径和几条自上而下的路径。头部用于进行最终的物体检测和分类。

免费赠品袋

YOLOv4 还使用了被称为 "bag of freebies "的方法,即在不增加推理成本的情况下,在训练过程中提高模型准确性的技术。数据增强是物体检测中常用的一种 "bag of freebies "技术,它可以增加输入图像的可变性,从而提高模型的鲁棒性。数据增强的一些例子包括光度失真(调整图像的亮度、对比度、色调、饱和度和噪点)和几何失真(添加随机缩放、裁剪、翻转和旋转)。这些技术有助于模型更好地适应不同类型的图像。

功能和性能

YOLOv4 的设计旨在实现物体检测的最佳速度和准确性。YOLOv4 的架构包括作为主干的 CSPDarknet53、作为颈部的 PANet 和作为检测头的 YOLOv3。这种设计使 YOLOv4 能够以惊人的速度执行物体检测,使其适用于实时应用。YOLOv4 的准确性也非常出色,在物体检测基准测试中取得了最先进的结果。

使用示例

截至本文撰写之时,Ultralytics 目前还不支持 YOLOv4 模型。因此,任何有兴趣使用 YOLOv4 的用户都需要直接访问 YOLOv4 GitHub 存储库,以获取安装和使用说明。

下面简要介绍使用 YOLOv4 的典型步骤:

  1. 访问 YOLOv4 GitHub 代码库:https://github.com/AlexeyAB/darknet。

  2. 按照 README 文件中提供的说明进行安装。这通常包括克隆版本库、安装必要的依赖项和设置任何必要的环境变量。

  3. 安装完成后,您可以根据资源库中提供的使用说明训练和使用模型。这通常包括准备数据集、配置模型参数、训练模型,然后使用训练好的模型执行对象检测。

请注意,具体步骤可能会根据您的具体使用情况和 YOLOv4 代码库的当前状态而有所不同。因此,强烈建议直接参考 YOLOv4 GitHub 代码库中提供的说明。

我们对由此造成的不便深表歉意,并将努力在支持 YOLOv4 后更新本文档,提供Ultralytics 的使用示例。

结论

YOLOv4 是一个强大而高效的物体检测模型,在速度和准确性之间取得了平衡。它在训练过程中使用了独特的功能和免费技术,使其在实时物体检测任务中表现出色。任何拥有传统 GPU 的人都可以对 YOLOv4 进行训练和使用,因此它可以在广泛的应用中使用,而且非常实用。

引文和致谢

我们衷心感谢 YOLOv4 作者在实时物体检测领域做出的重大贡献:

@misc{bochkovskiy2020yolov4,
      title={YOLOv4: Optimal Speed and Accuracy of Object Detection},
      author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao},
      year={2020},
      eprint={2004.10934},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

YOLOv4 的原始论文可在arXiv 上找到。作者公开了他们的工作,代码库可以在GitHub 上访问。我们感谢他们为推动这一领域的发展和让更多人了解他们的工作所做的努力。



创建于 2023-11-12,更新于 2024-01-07
作者:glenn-jocher(6)、sergiuwaxmann(1)

评论