跳转至内容

YOLOv5 :实时目标检测的代际飞跃

计算机视觉的发展历程始终以追求更快速、更精准、更易获取的模型为特征。在比较 Ultralytics YOLOv5 与尖端的Ultralytics ,我们见证了一场范式转变——它弥合了稳健的传统系统与现代人工智能部署前沿之间的鸿沟。

本指南对两种架构进行了全面的技术解析,重点阐述了它们的性能指标、结构差异以及理想部署场景。

模型概述

YOLOv5:行业主力

2020年发布的YOLOv5 目标检测技术的普及程度。通过将架构原生迁移至 PyTorch 框架,为开发者提供了前所未有的"零基础到高手"体验。

YOLOv5 为高度维护的Ultralytics YOLOv5 基础。它引入了激进的数据增强技术、高效的训练循环以及高度优化的导出路径,支持将模型导出至边缘格式如 CoreMLONNX等边缘格式。其易用性与训练阶段的低内存需求,使其成为全球初创企业与研究人员的标配方案。

了解更多关于 YOLOv5

YOLO26:新一代视觉人工智能标准

快进到2026年1月Ultralytics 代表着实时视觉AI的巅峰。它原生整合了历代产品积累的经验,例如 YOLOv8YOLO11的经验教训,同时引入了受大型语言模型(LLM)训练启发的重大突破。

YOLO26 树立了性能平衡的新标杆,在提供尖端精度的同时,其设计专为在边缘计算场景中占据主导地位而优化。

了解更多关于 YOLO26 的信息

其他Ultralytics

若您正在迁移旧版代码库,您可能还想YOLOv5 YOLO11进行对比——后者作为前代模型,首次实现了姿势估计 和定向边界框旋转框检测等多样化任务的支持。

YOLO26的架构突破

虽然YOLOv5 锚点检测头和标准损失函数,但YOLO26彻底改造了内部机制以消除部署瓶颈。

  1. NMS:最显著的差异在于YOLO26原生具备端到端架构不同于需要手动非最大抑制(NMS)过滤冗余边界框YOLOv5YOLO26彻底消除了这一后处理步骤。这确保了确定性的推理延迟,并极大简化了在C++或嵌入式硬件中的集成过程。
  2. DFL移除:YOLO26移除了分布式焦点损失(DFL)。这一架构选择极大简化了模型导出流程,并增强了与低功耗边缘设备及微控制器的兼容性——这些设备通常难以处理复杂运算符。
  3. MuSGD优化器:借鉴Moonshot AI的Kimi K2算法,YOLO26采用MuSGD优化器——这是SGD 的混合体。该技术将大型语言模型训练中的稳定SGD 收敛特性引入计算机视觉领域,相较于transformer模型,实现了更低的内存占用和更快的训练周期。
  4. ProgLoss + STAL:YOLO26 采用先进的 ProgLoss 和 STAL 功能,显著提升了其detect 密集目标的能力——这曾是YOLOv5 面临的历史性挑战。

性能对比

COCO 上对比各模型时,YOLO26在显著提升精度(mAP)的同时,实现了参数数量的减少和CPU 速度的提升。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

注:YOLO26 Nano(YOLO26n)实现了惊人的40.9mAP .0mAP。同时,由于去除了深度全局平均(DFL)和NMS的预测头, CPU 提升高达43%

通用性与任务支持

YOLOv5 主要以目标检测功能YOLOv5 。虽然后续版本引入了基础分割功能,但YOLOv26是从零开始构建的统一多任务引擎。

YOLO26 本质上支持:

  • 实例分割:采用任务特异性多尺度原型和语义分割损失函数。
  • 姿势估计 :利用残差对数似然估计(RLE)实现高精度关键点检测。
  • 定向边界框(旋转框检测):包含专门的角度损失项以解决边界不连续问题,这对卫星图像分析至关重要。
  • 图像分类:标准全图分类。

生态系统集成

两种模型均受益Ultralytics 提供无缝数据标注、自动超参数调优及一键式云部署功能。然而,YOLO26充分利用了现代API架构的优势。

用法与代码示例

Ultralytics Python 让模型切换变得极其简单。由于两种模型共享同一个维护良好的生态系统,将旧版YOLOv5 升级至YOLO26仅需更换权重文件即可。

Python 示例

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

CLI 示例

您可通过命令行直接部署 YOLO26,使用 TensorRT 集成,实现最大GPU :

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

理想用例

何时选择 YOLO26

对于任何现代计算机视觉项目,YOLO26都是无可争议的首选方案

  • 边缘AI与物联网:其CPU 提升43%且去除了DFL,使其完美适用于树莓派或移动设备部署。
  • 高速管道: NMS架构确保了稳定可预测的延迟,这对自主机器人和实时安全警报系统至关重要。
  • 复杂场景:若您的应用需要追踪小型物体(如无人机监控)或旋转物体(旋转框检测),YOLO26的高级损失函数(ProgLoss + STAL)能提供显著的精度优势。

何时选择 YOLOv5

  • 遗留系统:若您的生产环境存在YOLOv5特定锚点生成或NMS 逻辑的硬编码依赖,迁移可能需要短暂的重构周期。
  • 特定学术基准:研究人员常YOLOv5 经典基准,以展示目标检测架构的历史演进。

总结

YOLOv5 演进不仅是迭代更新,更是物体检测模型训练与部署方式的根本性飞跃。通过采用MuSGD优化器、采用NMS设计省去复杂后处理,以及大幅提升CPU Ultralytics 实现了速度与精度的完美平衡。

尽管YOLOv5 永远被铭记为推动视觉人工智能普及化的模型,但开发者若想构建稳健可靠、可投入生产且具备前瞻性的应用程序,应当以YOLO26为基础进行开发。


评论