跳转至内容

YOLOv10 :端到端目标检测的进化之路

近年来,计算机视觉领域取得了显著进展,其架构正从复杂且依赖大量后期处理的体系向精简高效的端到端模型转变。本技术对比深入探讨了该领域两大里程碑:学术突破性YOLOv10 前沿企业级解决方案YOLO26。通过分析两者的架构设计、训练方法及实际部署能力,开发者在构建下一代视觉AI应用时可据此做出明智决策。

YOLOv10:开创性的端到端目标检测

作者:王洵、陈辉、刘立浩等。
机构:清华大学
日期:2024-05-23
链接:arXiv论文|GitHub仓库

2024年中发布的YOLOv10 在学术计算机视觉研究领域YOLOv10 重大突破,成功解决了实时目标检测中最顽固的瓶颈之一:非最大抑制(NMS)。传统目标检测器高度NMS 过滤冗余边界框,这不仅在推理过程中引入可变延迟,更增加了边缘部署的复杂性。

清华大学团队提出了一种适用于NMS的一致性双重分配策略。该策略使模型能够在无需后处理过滤步骤的情况下准确预测边界框,直接提升了推理延迟并降低了在硬件加速器上部署的门槛。尽管该模型在标准检测任务中表现高效,但其主要专注于边界框预测,缺乏对实例分割或姿势估计 等更复杂任务的原生支持。

了解更多关于 YOLOv10

YOLO26:边缘与云端视觉人工智能的新标准

作者:Glenn Jocher 和 Jing Qiu
机构: Ultralytics
日期:2026-01-14
链接:GitHub 仓库|Ultralytics

基于早期开创的NMS理念,全新发布的YOLO26代表了性能与多功能性的巅峰。该系统专为学术研究与企业级部署而设计,原生采用端到端NMS架构,彻底消除了NMS ,可在所有支持硬件上实现更快速、更简便的部署。

YOLO26引入了多项突破性的架构改进。移除分布式焦点损失(DFL)显著简化了模型导出流程,并增强了与低功耗边缘设备的兼容性。结合这些结构性变革,YOLO26实现了高达43CPU 加速,使其成为物联网和机器人应用的卓越选择——尤其在无法GPU 场景中。

此外,通过采用MuSGD优化器——一种融合了SGD 受大型语言模型(LLM)训练技术启发的Muon算法的混合优化器——训练稳定性和收敛速度已获得革命性突破。结合ProgLoss + STAL等先进损失函数,YOLO26在小目标识别方面取得显著提升。该模型还引入了任务特化增强方案:采用多尺度原型设计实现分割优化,运用残差对数似然估计(RLE)姿势估计 并通过专用角度损失函数解决旋转框检测边界框旋转框检测中的边界问题。

了解更多关于 YOLO26 的信息

企业部署

对于希望扩展计算机视觉工作流的Ultralytics 无缝集成,提供直观的数据标注、自动化云端训练以及一键部署选项,无需构建复杂的机器学习运维基础设施。

技术性能比较

在评估这些模型时,准确率、模型规模与推理速度之间的平衡至关重要。下表展示了两大模型家族在不同规模下的性能表现,评估基于COCO 进行。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv10n64039.5-1.562.36.7
YOLOv10s64046.7-2.667.221.6
YOLOv10m64051.3-5.4815.459.1
YOLOv10b64052.7-6.5424.492.0
YOLOv10l64053.3-8.3329.5120.3
YOLOv10x64054.4-12.256.9160.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

数据清晰地证明了新型架构的进化优势。YOLO26在所有尺寸层级上均实现了mAP 平均精度均值),同时保持了极具竞争力的推理速度。YOLO26中移除DFL(深度全局预测)的特性,尤其为其CPU ONNX 做出了贡献——这一指标正是前代模型常显短板之处。

训练方法与生态系统

模型的实用性取决于支撑它的生态系统。YOLOv10 基于YOLOv10 出色的学术实现,但 PyTorch,但处理基础检测之外的任务时常需手动配置。

相比之下,YOLO26已完全集成到维护Ultralytics 。这使得其在训练阶段的内存需求显著低于transformer模型,例如 RT-DETR等模型相比,显著降低了训练时的内存需求,使研究人员能够在消费级硬件上训练最先进的网络。其易用性无可比拟,提供统一的API自动处理数据增强、超参数调优和日志记录。

代码示例:训练 YOLO26

训练一个多功能、高精度的模型只需Python :

from ultralytics import YOLO

# Load the highly optimized YOLO26 small model
model = YOLO("yolo26s.pt")

# Train the model efficiently with automatic memory management
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
)

# Export natively to TensorRT without NMS complexities
model.export(format="engine")

实际应用与用例

选择合适的架构完全取决于部署限制。

高速边缘计算

对于需要在微控制器、机器人或传统移动设备上快速部署的应用,YOLO26凭借其快43%CPU 速度成为不二之选。其NMS、免DFL的架构可无缝转换为 OpenVINOTensorRT等格式,特别适用于智慧城市基础设施中的实时视频分析。

高级多任务视觉

尽管YOLOv10 在纯边界框检测YOLOv10 ,但需要丰富视觉理解能力的项目仍需依赖YOLO26。从医学影像中的实例分割到体育分析中的精准姿势估计 YOLO26提供了针对特定任务的损失函数,确保在多样化领域中实现卓越的准确性。

替代方案

若您的项目需要强大的开放词汇检测功能,建议探索YOLO。对于维护传统管道的用户, YOLO11 在Ultralytics 仍作为完全支持的强大替代方案。

应用场景与建议

选择YOLOv10 YOLO26取决于您的具体项目需求、部署限制以及生态系统偏好。

何时选择 YOLOv10

YOLOv10 以下场景的强力选择:

  • NMS检测:受益于端到端检测且无需非最大抑制的应用,可降低部署复杂性。
  • 平衡速度与准确度的权衡:要求在不同模型规模下,在推理速度与检测准确度之间实现强平衡的项目。
  • 一致延迟应用:部署场景中,可预测的推理时间至关重要,例如机器人或自主系统。

何时选择 YOLO26

YOLO26推荐用于:

  • NMS边缘部署:适用于需要持续低延迟推理,且无需复杂非最大抑制后处理的应用场景。
  • CPU环境:在不具备专用GPU 设备上,YOLO26高达43%CPU 加速优势具有决定性意义。
  • 小目标检测: 在无人机航拍图像或物联网传感器分析等挑战性场景中,ProgLoss和STAL能显著提升对微小目标的检测精度。

结论

YOLOv10 演进,标志着从学术概念验证向生产就绪的企业级解决方案的关键转变。通过采用开创性的NMS设计,并结合MuSGD优化器、ProgLoss损失函数及简化的边缘兼容性,YOLO26为实时计算机视觉领域树立了全新标杆。 对于追求速度、精度与易用性最佳平衡的开发者而言,YOLO26无疑是终极推荐方案。


评论