跳转至内容

YOLOv10 YOLOv7:实时目标检测的进化之路

过去几年计算机视觉的快速发展催生了越来越高效的实时应用架构。对比 YOLOv10YOLOv7 的对比,凸显了这一演进过程中的关键过渡阶段。YOLOv7 高效的训练策略和架构扩展方案,而YOLOv10 则通过彻底摆脱长期依赖的非最大抑制(NMS)机制,YOLOv10 部署方式YOLOv10 。

这两种模型在各自发布时都突破了物体检测的界限,但现代Ultralytics 以及YOLO26等新一代模型的推出,为当今的人工智能从业者提供了更卓越的工作流程。

模型档案与起源

理解这些模型的起源,有助于我们把握其架构设计选择背后的关键背景,以及推动这些设计的学术研究。

YOLOv10

了解更多关于 YOLOv10

YOLOv7

了解更多关于 YOLOv7

架构创新

YOLOv7 方法

2022年发布的YOLOv7 梯度路径。该模型引入了扩展高效层聚合网络(E-ELAN),使其能够学习更多样化的特征,同时不破坏原始梯度路径。 此外,研究者实现了"可训练的免费特征集合"方法,在训练阶段运用可重参数化技术,并在推理时融合这些参数以保持高速执行。尽管优化成果显著,YOLOv7 高度依赖NMS ,导致在密集场景分析中存在延迟波动问题。

YOLOv10 的YOLOv10

YOLOv10 NMS 。清华大学团队通过在训练阶段引入一致的双重分配机制,实现了NMS端到端检测。这种双头架构采用双分支设计:一个分支在训练时采用多目标分配以获取丰富的监督信号,另一个分支则采用一对一分配NMS推理。 这种架构变革确保了稳定的超低推理延迟,适用于高速视频分析。此外,YOLOv10 整体效率-准确率驱动的模型设计,消除了早期版本中的计算冗余。

后处理影响

NMS 不仅能加速推理过程,还能显著简化在边缘AI硬件(如AI加速器和NPU)上的部署——这些硬件因其定制化NMS 难以编译而闻名。

性能对比

在比较MSCOCO 的原始指标时,代际差距显而易见。YOLOv10 在参数、计算需求和准确性之间YOLOv10 更优的权衡。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv10n64039.5-1.562.36.7
YOLOv10s64046.7-2.667.221.6
YOLOv10m64051.3-5.4815.459.1
YOLOv10b64052.7-6.5424.492.0
YOLOv10l64053.3-8.3329.5120.3
YOLOv10x64054.4-12.256.9160.4
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

如上所示,YOLOv10x 在参数数量减少约 20% 的情况下,实现了 54.4%mAP 值,优于 YOLOv7x 的 53.1%。此外,轻量级YOLOv10 (Nano 和 Small)TensorRT 展现出卓越的速度,使其成为移动端部署的理想选择。

Ultralytics 生态系统优势

虽然研究建筑论文能带来深刻见解,但现代计算机视觉的发展依赖于强大且维护良好的框架。选择Ultralytics模型,能为希望快速从原型阶段推进到生产阶段的开发者带来巨大优势。

简化开发

YOLOv7 通过Ultralytics Python YOLOv7 。该方案提供了无与伦比的易用性,仅需简单直观的API即可替代数千行冗余代码。此外,相较于复杂的transformer Ultralytics YOLO 在训练过程中CUDA 显著降低,从而能在消费级硬件上支持更大的批量处理规模。

无与伦比的多功能性

旋转框检测早期存储库往往严格专注于边界框检测,Ultralytics 能无缝支持海量多样化的任务。无论您进行实例分割姿势估计 还是定向边界框检测其工作流程始终保持一致。

代码示例:一致的训练工作流

以下代码片段展示了无缝的训练过程,该过程自动处理数据增强和学习率调度:

from ultralytics import YOLO

# Load the desired model (YOLOv10, YOLOv7, or the recommended YOLO26)
model = YOLO("yolo26n.pt")

# Train the model effortlessly on your dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)

# Export to ONNX format for rapid deployment
model.export(format="onnx")

应用场景与建议

选择YOLOv10 YOLOv7 您的具体项目需求、部署限制以及生态系统偏好。

何时选择 YOLOv10

YOLOv10 以下场景的强力选择:

  • NMS检测:受益于端到端检测且无需非最大抑制的应用,可降低部署复杂性。
  • 平衡速度与准确度的权衡:要求在不同模型规模下,在推理速度与检测准确度之间实现强平衡的项目。
  • 一致延迟应用:部署场景中,可预测的推理时间至关重要,例如机器人或自主系统。

何时选择 YOLOv7

YOLOv7 推荐用于:

  • 学术基准测试:复现2022年最先进成果,或研究E-ELAN及可训练自由样本袋技术的影响。
  • 重参数化研究:探究预先规划的重参数化卷积与复合模型缩放策略。
  • 现有定制管道:围绕YOLOv7特定架构构建的高度定制化管道项目,难以进行重构。

何时选择Ultralytics YOLO26)

对于大多数Ultralytics 提供了性能与开发者体验的最佳组合:

  • NMS边缘部署:适用于需要持续低延迟推理,且无需复杂非最大抑制后处理的应用场景。
  • CPU环境:在不具备专用GPU 设备上,YOLO26高达43%CPU 加速优势具有决定性意义。
  • 小目标检测: 在无人机航拍图像或物联网传感器分析等挑战性场景中,ProgLoss和STAL能显著提升对微小目标的检测精度。

新标准:YOLO26重磅登场

YOLOv10 在2024年YOLOv10 重大突破,但计算机视觉领域的发展速度惊人。对于所有新开发项目,我们强烈推荐采用最新一代模型:Ultralytics 。该模型于2026年1月发布,代表着实时视觉人工智能的绝对巅峰,其性能远超YOLOv7 YOLOv10。

了解更多关于 YOLO26 的信息

YOLO26带来了专为现代部署环境设计的突破性创新:

  • 端到NMS:基于YOLOv10奠定的基础,YOLOv26原生消除了NMS ,从而简化部署流程并实现持续高速推理。
  • 最高可提升43%CPU :针对边缘计算和缺乏专用GPU的设备进行了深度优化,大幅节省硬件成本。
  • DFL移除:分布式焦点损失算法已被完全移除,这极大简化了导出逻辑,并显著提升了与低功耗边缘设备及微控制器的兼容性。
  • MuSGD优化器:受Moonshot AI的Kimi K2启发,这种结合了SGD MuonSGD 混合算法将大型语言模型(LLM)训练的创新成果直接引入计算机视觉领域,实现了极其稳定的训练动态和更快的收敛速度。
  • ProgLoss + STAL:这些先进的损失函数在小型物体识别领域实现了显著提升。该领域历来是技术难点,对无人机、机器人及智慧城市监控至关重要。
  • 任务特异性改进:YOLO26不仅是检测器。它包含专用的语义分割损失函数、用于超精准姿势估计 残差对数似然估计(RLE),以及消除旋转框检测 问题的专用角度损失算法。

数据集管理与训练

要获得最佳的数据集管理、YOLO26训练及云端模型部署体验,请Ultralytics 。该平台提供无代码界面,Python 完美互补。

实际应用案例

选择合适的架构很大程度上取决于您的硬件和应用程序限制。

何时使用 YOLOv7

YOLOv7 维护已深度集成其特定tensor 的传统管道时的可靠选择,或用于复现2022年及2023年的学术基准测试时。该模型在高端服务器GPU上表现优异。

何时使用YOLOv10

YOLOv10 在需要严格恒定延迟的场景中YOLOv10 。由于其NMS,特别适用于高密度人群计数或制造缺陷检测等场景——这些场景中目标数量剧烈波动,但每帧处理时间必须保持恒定。

何时使用 YOLO26

YOLO26是任何绿地项目的首选方案。无论是基于基础树莓派部署精密安防报警系统,还是运行大规模云端视频分析,其卓越的CPU 和先进的小型物体检测能力都使其远超旧代产品。

对于有兴趣探索替代性现代架构的开发者,我们还为transformer检测器(如 RT-DETR ,以及前几代经典模型如 Ultralytics YOLO11


评论