跳转至内容

YOLOv7 对比 YOLOv5:实时 detect 器的技术比较

在构建现代计算机视觉流水线时,选择合适的物体检测架构对于平衡精度、推理速度和资源利用率至关重要。这项全面比较考察了计算机视觉领域中两个极具影响力的模型:YOLOv7 和 Ultralytics YOLOv5。

通过分析它们的架构差异、性能指标和理想部署场景,我们旨在帮助开发者和研究人员为其特定需求选择最佳模型。

模型背景与起源

了解这些模型的起源,有助于理解其设计理念和目标应用场景。

YOLOv5

由Glenn Jocher和Ultralytics团队于2020年6月26日发布的YOLOv5通过提供原生的PyTorch实现,在不牺牲性能的前提下优先考虑了可用性,从而彻底改变了该领域。凭借其极其精简的生态系统和可靠的训练动态,它迅速成为行业标准。 您可以在YOLOv5 GitHub仓库上探索源代码,或通过Ultralytics平台直接访问模型。

了解更多关于 YOLOv5

YOLOv7

由台湾中央研究院信息科学研究所的王建尧、Alexey Bochkovskiy和廖弘源于2022年7月6日提出。YOLOv7重点关注架构创新,例如扩展高效层聚合网络(E-ELAN)和可训练的“免费包”,以将准确性推向最先进水平。 详细信息可在其官方Arxiv论文YOLOv7 GitHub仓库中找到。如需无缝集成,请查阅Ultralytics YOLOv7文档

了解更多关于 YOLOv7

无缝实验

这两种模型都完全集成到Ultralytics Python包中,只需更改代码中的模型字符串即可在它们之间切换!

架构创新

Ultralytics YOLOv5 设计

YOLOv5采用改进的CSPDarknet53骨干网络,并搭配路径聚合网络(PANet)颈部。这种设计针对快速特征提取和内存效率进行了高度优化。与旧架构或大型Transformer模型不同,YOLOv5在训练期间所需的CUDA内存显著减少,从而允许在标准消费级GPU上使用更大的批量大小。此外,Ultralytics框架本身支持除标准边界框之外的多种任务,包括图像segment图像分类

YOLOv7 设计

YOLOv7 引入了几种结构重参数化和 E-ELAN 架构,这使得网络能够在不破坏原始梯度路径的情况下学习更多样化的特征。它还在训练期间实现了用于中间监督的辅助头。虽然这些进步带来了高平均精度 (mAP),但它们通常引入复杂的 tensor 结构,与 Ultralytics 模型原生的简化导出相比,这使得导出到 ONNXTensorRT 等边缘格式变得略具挑战性。

性能分析

比较这些模型时,开发者必须平衡 mAPval、推理速度和计算复杂度 (FLOPs)。下表展示了在 COCO 数据集上评估的两种架构的性能。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

主要内容

  • 准确性上限:YOLOv7x 在令人印象深刻的 53.1 mAPval 上达到了最高的整体准确性,使其在以最大化 detect 性能为主要目标的场景中极具竞争力。
  • 速度与效率:Ultralytics YOLOv5n 是效率的典范,提供闪电般的推理延迟(在 T4 TensorRT 上为 1.12 毫秒),且内存占用极小,仅 2.6M 参数。这使其成为高度受限边缘部署的无与伦比的选择。
  • 性能平衡:YOLOv5系列提供了一系列出色的模型梯度。YOLOv5l提供了一个绝佳的中间地带,虽然精度略低于YOLOv7l,但提供了高度成熟的部署管线。

Ultralytics 生态系统优势

模型的架构只是其中一部分;其周围的生态系统决定了它在现实世界中的可行性。这正是Ultralytics模型真正出彩的地方。

易用性: Ultralytics 提供统一、高度直观的 Python API。您可以使用最少的样板代码训练、验证和部署模型,并由广泛的官方文档提供支持。 完善的生态系统: 积极的开发确保了持续的更新、错误修复以及与 Weights & Biases 等现代跟踪工具的无缝集成。 训练效率: 利用优化的数据加载器和智能缓存,YOLOv5 大幅缩短了训练时间。此外,即用型预训练权重加速了跨各种领域的迁移学习。

代码示例:精简训练

使用Ultralytics软件包,无论您选择哪种架构,启动训练运行几乎是相同的。

from ultralytics import YOLO

# Load a pre-trained YOLOv5 model (can easily swap to "yolov7.pt")
model = YOLO("yolov5s.pt")

# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Export the trained model to ONNX format for deployment
success = model.export(format="onnx")

理想用例

何时选择 YOLOv7

  • 学术基准测试:非常适合需要将新颖技术与有详细文档记录的2022年基线进行比较的研究人员。
  • 高端GPU云处理:部署在强大的服务器硬件上时,在密集场景中实现绝对最高的mAP比导出简易性更重要。

何时选择 YOLOv5

  • 生产部署:适用于需要高稳定性、直接的模型部署选项和广泛跨平台兼容性的商业应用。
  • 边缘设备:较小的变体(YOLOv5n和YOLOv5s)在手机和嵌入式系统上运行表现出色。
  • 多任务需求:如果您的项目需要从简单的检测发展到姿势估计或segmentation,并使用统一框架。

探索其他架构

正在寻找更近期的迭代?可以考虑探索Ultralytics YOLOv8Ultralytics YOLO11,以了解无锚点检测和多任务学习能力的进一步发展。

下一代:Ultralytics YOLO26

尽管YOLOv5和YOLOv7在视觉AI历史上占据重要地位,但该领域正在不断演进。于2026年1月发布的Ultralytics YOLO26代表了目标检测技术的绝对前沿,在所有指标上都超越了前几代模型。

了解更多关于 YOLO26 的信息

YOLO26 引入了多项颠覆性功能:

  • 端到端免NMS设计:基于早期迭代中开创的概念,YOLO26原生支持端到端。这完全消除了非极大值抑制(NMS)后处理,从而消除了延迟瓶颈并大幅简化了部署逻辑。
  • MuSGD 优化器:受 Moonshot AI 的 Kimi K2 启发,这种革命性的优化器将标准 SGD 的稳定性与 Muon 的加速动量相结合,将先进的 LLM 训练创新直接引入计算机视觉。
  • 提升CPU速度:通过策略性地移除分布焦点损失 (DFL),YOLO26实现了高达43%的CPU推理速度提升,使其成为边缘和低功耗物联网设备部署的无可争议的王者。
  • ProgLoss + STAL: 这些先进的损失函数在小目标识别方面带来了巨大改进,这对于航空影像和精密机器人技术至关重要。
  • 任务特定改进: 采用用于掩码生成的语义分割损失、用于姿势估计追踪的残差对数似然估计 (RLE),以及用于解决棘手旋转框检测 (OBB)边界问题的专用角度损失。

结论

YOLOv5 和 YOLOv7 都为实时目标检测提供了强大的解决方案。YOLOv7 在高计算硬件上仍然是实现原始精度的强大选择,而 YOLOv5 则作为终极开发者友好工具脱颖而出,在速度、效率和世界级生态系统之间取得了卓越的平衡。

然而,对于希望使其流水线面向未来并实现速度、简洁性和最先进准确性终极结合的开发者,我们强烈建议迁移到Ultralytics YOLO26。它融合了 Ultralytics 平台传奇般的易用性,同时带来了突破性的架构创新。


评论