跳转至内容

YOLO26 与 YOLOv8:下一代目标检测的进展

计算机视觉的发展一直由在不牺牲准确性的前提下追求实时性能所定义。随着开发者和研究人员探索现代机器学习的领域,选择正确的模型架构至关重要。这项全面的技术比较探讨了从2023年重新定义标准的广受欢迎的架构Ultralytics YOLOv8到2026年1月发布的尖端Ultralytics YOLO26的代际飞跃。

通过深入研究它们的架构、性能指标和训练方法,我们强调了为什么升级到最新创新对于目标detect、segmentation及其他领域提供了显著优势。

模型背景与元数据

了解这些架构的起源,为其各自的突破提供了背景信息。两种模型均由Ultralytics开发,该公司以使最先进的AI易于访问和部署而闻名。

YOLO26 详情:
作者: Glenn Jocher 和 Jing Qiu
组织: Ultralytics
日期: 2026-01-14
GitHub: https://github.com/ultralytics/ultralytics
文档: https://docs.ultralytics.com/models/yolo26/

了解更多关于 YOLO26 的信息

YOLOv8 详情:
作者:Glenn Jocher, Ayush Chaurasia, and Jing Qiu
组织:Ultralytics
日期:2023-01-10
GitHub:https://github.com/ultralytics/ultralytics
文档:https://docs.ultralytics.com/models/yolov8/

了解更多关于 YOLOv8

架构创新

从 YOLOv8 到 YOLO26 的转变在神经网络处理视觉数据和计算损失的方式上引入了重大的范式转变。

YOLO26:边缘效率的巅峰

YOLO26 从头开始设计,旨在消除部署瓶颈,并在受限硬件上最大限度地提高推理速度。

  • 端到端免NMS设计:基于YOLOv10率先提出的概念,YOLO26原生采用端到端架构。通过完全消除对非极大值抑制(NMS)后处理的需求,延迟波动几乎被消除。这简化了需要严格实时保证的应用的部署逻辑。
  • DFL移除:移除分布式焦点损失(DFL)大幅简化了输出头。这种架构选择显著提高了与低功耗边缘设备的兼容性,并简化了导出到ONNXCoreML等格式。
  • MuSGD 优化器:受 Moonshot AI 的 Kimi K2 等大语言模型 (LLM) 训练稳定性的启发,YOLO26 采用了 MuSGD 优化器——一种随机梯度下降和 Muon 的混合优化器。这为计算机视觉带来了 LLM 规模的训练创新,从而实现更快的收敛和高度稳定的训练。
  • ProgLoss + STAL: 为解决识别微小目标这一众所周知的难题,YOLO26 采用了渐进式损失 (ProgLoss) 结合尺度容忍锚框损失 (STAL)。这为小目标 detect提供了关键改进,使其成为无人机应用的理想选择。

特定任务优化

YOLO26还在多个计算机视觉领域带来了有针对性的升级。它利用语义分割损失和多尺度原型以实现更好的实例分割,采用残差对数似然估计(RLE)以实现高精度的姿势估计,以及专门的角度损失算法来解决旋转框检测(OBB)中的边界问题。

YOLOv8:高度通用的主力模型

YOLOv8 于 2023 年发布时,通过完全过渡到无锚点设计,树立了新的基准,该设计在不同数据集长宽比下具有更好的泛化能力。

  • C2f模块:它用C2f块取代了旧的C3模块,从而在网络骨干中实现了更好的梯度流。
  • 解耦头:YOLOv8采用了解耦头,其中分类和边界框回归是独立计算的,显著提升了平均精度(mAP)。
  • 任务多样性: 它是首批模型之一,开箱即用,为图像分类、检测、分割和姿势估计任务提供真正统一的 API。

性能指标与资源要求

在评估用于生产的模型时,准确性、推理速度和模型大小之间的平衡至关重要。YOLO26 在所有尺寸变体中都展现出明显的代际优势。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv8n64037.380.41.473.28.7
YOLOv8s64044.9128.42.6611.228.6
YOLOv8m64050.2234.75.8625.978.9
YOLOv8l64052.9375.29.0643.7165.2
YOLOv8x64053.9479.114.3768.2257.8

注:突出显示的值表明了 YOLO26 架构相对于其前身的性能平衡和效率提升。

分析

YOLO26 取得了显著的 CPU 推理速度最高可提升 43% 与类似的YOLOv8模型相比。例如, YOLO26n 在利用 ONNX 的 CPU 上达到 38.9 毫秒,相比之下 YOLOv8n的80.4毫秒,同时将mAP从37.3提高到40.9。CPU效率的巨大提升直接归因于DFL的移除和无NMS设计,使YOLO26成为缺乏专用GPU环境的绝对主力。

此外,YOLO26 模型在其各自的尺寸级别中具有更低的参数量和 FLOPs,与传统的 Transformer 架构相比,这大大减少了推理和训练期间的GPU 内存使用量。

Ultralytics 生态系统优势

选择 AI 模型时的一个主要考虑因素是周围的基础设施。YOLO26 和 YOLOv8 都极大地受益于统一的Ultralytics 平台,提供无与伦比的开发体验。

  1. 易用性:“从零到英雄”的理念确保开发者能够以最少的代码加载、训练和导出模型。python API 在不同模型世代之间保持一致。
  2. 训练效率:Ultralytics YOLO模型在训练运行期间相比于Transformer模型(如RT-DETR)需要极低的CUDA内存。这使得在消费级硬件上使用更大的批处理大小成为可能,从而普及AI研究。
  3. 维护良好的生态系统:凭借持续更新、严格的 CI/CD 管线以及与 Weights & BiasesTensorRT 等工具的深度集成,Ultralytics 仓库功能强大且已为生产做好准备。
  4. 无与伦比的多功能性:Ultralytics 模型并非功能单一;一次导入即可处理多样化数据集,增强了需要同时进行 track、分类和 segment 的复杂系统的工作流程。

简化升级

由于Ultralytics API高度标准化,将生产系统从YOLOv8升级到YOLO26实际上就像更改字符串一样简单 "yolov8n.pt""yolo26n.pt" 在您的脚本中。

真实世界的应用

在这些模型之间进行选择通常取决于您的部署限制,不过YOLO26普遍推荐用于新项目。

边缘计算与物联网网络

对于边缘环境——例如树莓派部署或本地化工厂车间传感器——YOLO26是无可争议的冠军。其原生优化的CPU速度和NMS-free结构意味着智能摄像头可以处理用于停车管理的高帧率视频,而不会因后处理瓶颈而丢帧。

高空和航空影像

在通过无人机进行的农业监测或基础设施检查中,小目标检测至关重要。YOLO26ProgLoss + STAL的实现使其能够持续检测到YOLOv8等旧架构可能遗漏的微小害虫或管道中的微裂纹,在VisDrone等数据集上提供卓越的召回率和精度。

传统GPU系统

YOLOv8对于那些与其特定边界框回归输出紧密耦合的系统,或受限于漫长验证周期而无法轻易迁移架构的企业部署来说,仍然具有重要意义。

应用场景与建议

在YOLO26和YOLOv8之间选择取决于您具体的项目需求、部署限制和生态系统偏好。

何时选择 YOLO26

YOLO26 是以下场景的理想选择:

  • 免NMS的边缘部署:需要一致的低延迟推理,且无需非极大值抑制后处理复杂性的应用。
  • 纯CPU环境:在没有专用GPU加速的设备上,YOLO26高达43%的CPU推理速度提升提供了决定性优势。
  • 小目标 detect:无人机航拍图像 或物联网传感器分析等挑战性场景中,ProgLoss 和 STAL 显著提高了微小目标的准确性。

何时选择 YOLOv8

推荐使用 YOLOv8 进行:

  • 多功能多任务部署:在Ultralytics生态系统内,需要成熟模型支持的项目,用于detectsegment分类姿势估计
  • 已建立的生产系统:现有生产环境已基于YOLOv8架构构建,并拥有稳定、经过充分测试的部署流水线。
  • 广泛的社区和生态系统支持:应用程序受益于YOLOv8丰富的教程、第三方集成和活跃的社区资源。

代码示例:入门

利用最新的Ultralytics模型的力量非常简单直接。以下Python代码演示了在自定义数据集上训练YOLO26模型,并观察MuSGD优化器如何自动实现快速收敛。

from ultralytics import YOLO

# Load the highly efficient YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train on the standard COCO8 dataset
# The ecosystem handles hyperparameter tuning and augmentations natively
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    device="0",  # Automatically utilizes CUDA if available
)

# Run end-to-end, NMS-free inference on a source image
predictions = model("https://ultralytics.com/images/bus.jpg")

# Visualize the resulting detections
predictions[0].show()

其他值得考虑的模型

尽管YOLO26代表了当前最先进水平,但构建多样化应用的开发者也可能探索:

  • YOLO11: YOLO26 的直接前身,在 YOLOv8 基础上进行了卓越改进,仍在尖端生产系统中广泛使用。
  • RT-DETR: 百度开发的实时 detect Transformer。对于探索视觉任务中注意力机制的研究人员来说,这是一个绝佳的选择,尽管与标准的 Ultralytics YOLO 模型相比,它需要显著更多的 CUDA 内存进行训练。

如需全面的云训练、数据集标注和即时部署套件,请立即探索Ultralytics Platform


评论