YOLO26与YOLOv9:实时目标检测的下一次进化
计算机视觉领域发展迅猛,新型架构不断突破速度与精度的边界。本次技术对比中,我们将深入解析YOLO26与YOLOv9这两种在实时目标检测领域极具影响力的模型。虽然两者都提供了独特的架构创新,但了解它们在性能权衡、部署能力和硬件要求方面的差异,对于选择适合您下一个视觉项目的工具至关重要。
YOLO26:边缘优化的性能怪兽
Ultralytics 于2026年初发布,在部署效率和模型训练稳定性方面实现了代际飞跃。作为原生端到端框架,它直接解决了长期困扰边缘AI应用的部署瓶颈问题。
模型详情:
- 作者:Glenn Jocher 和 Jing Qiu
- 组织:Ultralytics
- 日期: 2026-01-14
- GitHub:Ultralytics 仓库
- 文档:YOLO26 文档
架构与创新
YOLO26通过引入端到端NMS,从根本上重构了后处理管道。该模型通过消除非最大抑制(NMS)需求,显著降低了延迟波动性。这使得模型在移动端和边缘平台的部署变得更为简便,尤其在导出至ONNX等框架时。 ONNX 和AppleCoreML等框架时尤为显著。
此外,移除分布式焦点损失(DFL)可简化导出流程,并提升与低功耗微控制器的兼容性。为增强训练稳定性,YOLO26集成了新型MuSGD优化器——该混合算法融合了随机梯度下降(SGD)与Muon(受大型语言模型训练创新启发),从而在复杂数据集上实现更快的收敛速度和更强大的特征提取能力。
边缘设备推理
得益于架构简化和去掉DFL,YOLO26实现了最高达43CPU 加速,使其成为树莓派或NVIDIA Nano等资源受限边缘设备的理想选择。
为检测无人机航拍图像等场景中的高难度目标,YOLO26采用了更新的ProgLoss + STAL损失函数。这些函数显著提升了小目标识别的召回率。此外,该模型还具备任务特异性增强功能,包括用于实例分割的多尺度原型、用于姿势估计 残差对数似然估计(RLE),以及用于检测定向边界框旋转框检测专用角度损失函数。
YOLOv9:可编程梯度信息
2024年初推出的YOLOv9 在神经网络处理训练阶段梯度流的方式上YOLOv9 理论突破,重点提升了参数效率并增强了深度特征的保留能力。
模型详情:
- 作者: Chien-Yao Wang 和 Hong-Yuan Mark Liao
- 组织: 台湾中研院资讯所
- 日期: 2024-02-21
- Arxiv:YOLOv9
- GitHub:YOLOv9 仓库
- 文档:YOLOv9 文档
架构与优势
YOLOv9 可编程梯度信息(PGI)和通用高效层聚合网络(GELAN)YOLOv9 这些概念解决了深度神经网络中常见的信息瓶颈问题。通过在前馈过程中保留关键信息,GELAN确保用于权重更新的梯度始终保持可靠性。 该架构实现了高精度,使YOLOv9 成为神经网络理论与梯度路径优化的学术研究中极具YOLOv9 ,尤其在 PyTorch 框架。
局限性
尽管参数效率卓越YOLOv9 高度YOLOv9 NMS 边界框NMS 这会在边缘设备推理过程中形成计算瓶颈。此外,其官方代码库主要聚焦于目标检测任务,若要将其适配至追踪或 姿势估计 等专项任务姿势估计 则需投入大量定制化工程工作。
性能对比
在评估这些模型用于实际部署时,平衡准确率(mAP)、推理速度和内存使用至关重要。Ultralytics 以其在训练和推理阶段的低内存需求而著称,所需CUDA 远低于transformer替代方案,例如 RT-DETR。
以下是YOLO26与YOLOv9 在COCO 上的YOLOv9 直接对比。每列中的最佳值以粗体突出显示。
| 模型 | 尺寸 (像素) | mAPval 50-95 | 速度 CPU ONNX (毫秒) | 速度 T4 TensorRT10 (毫秒) | 参数 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv9t | 640 | 38.3 | - | 2.3 | 2.0 | 7.7 |
| YOLOv9s | 640 | 46.8 | - | 3.54 | 7.1 | 26.4 |
| YOLOv9m | 640 | 51.4 | - | 6.43 | 20.0 | 76.3 |
| YOLOv9c | 640 | 53.0 | - | 7.16 | 25.3 | 102.1 |
| YOLOv9e | 640 | 55.6 | - | 16.77 | 57.3 | 189.0 |
注:YOLOv9 CPU YOLOv9 ,因其受NMS 影响显著,且通常慢于YOLO26原生NMS实现版本。
应用场景与建议
选择YOLO26YOLOv9 您的具体项目需求、部署限制以及生态系统偏好。
何时选择 YOLO26
YOLO26是以下场景的强力选择:
- NMS边缘部署:适用于需要持续低延迟推理,且无需复杂非最大抑制后处理的应用场景。
- CPU环境:在不具备专用GPU 设备上,YOLO26高达43%CPU 加速优势具有决定性意义。
- 小目标检测: 在无人机航拍图像或物联网传感器分析等挑战性场景中,ProgLoss和STAL能显著提升对微小目标的检测精度。
何时选择 YOLOv9
YOLOv9 推荐YOLOv9 :
- 信息瓶颈研究:学术项目研究可编程梯度信息(PGI)与广义高效层聚合网络(GELAN)架构。
- 梯度流优化研究:该研究致力于理解并缓解深度神经网络在训练过程中各层信息丢失的问题。
- 高精度检测基准测试:需要YOLOv9 COCO 强劲表现作为架构比较参考点的场景。
Ultralytics 优势
选择模型不仅需要参考准确率基准,更需考量周边软件生态系统——它决定了从数据采集到投入生产所需的时间周期。
易用性与生态系统
字段 Ultralytics Python 提供无缝的"零基础到高手"体验。开发者无需克隆复杂的仓库或手动配置分布式训练脚本,只需通过 pip 并立即开始训练。该系统处于主动维护状态。 Ultralytics生态系统 保证频繁更新,与机器学习平台(如)实现自动化集成 Weights & Biases,以及丰富的文档。
视觉任务中的多功能性
YOLOv9 检测引擎,而YOLO26YOLOv9 通用视觉工具。通过统一的语法,您可轻松实现从目标检测到像素级图像分割或全图分类的无缝切换。这种多功能性有效降低了维护多个独立代码库的技术债务,这些代码库原本用于实现不同的计算机视觉功能。
高效培训与部署
训练效率Ultralytics 基石。YOLO26采用现成的预训练权重,与笨重的视觉变换器相比,内存占用显著降低。训练完成后,内置导出管道可实现一键转换至优化格式,例如 TensorRTTensorFlow 优化格式,为投入生产铺平道路。
代码示例:YOLO26 入门
实现YOLO26的过程非常简单。以下Python 演示了如何加载预训练模型、使用自定义数据进行训练,以及通过Ultralytics 运行推理。
from ultralytics import YOLO
# Load the latest state-of-the-art YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset utilizing the MuSGD optimizer
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device=0, # Uses GPU 0, or use 'cpu' for CPU training
)
# Run an NMS-free inference on a sample image
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the bounding boxes and confidences
predictions[0].show()
通过利用YOLO26的速度优势、简化的架构和强大的生态系统,团队能够比以往更快地将先进的视觉人工智能应用推向市场,并克服更少的技术障碍。