跳转至内容

YOLO11 YOLOv5:实时目标检测的进化之路

YOLO You Only Look Once)家族的演进历程,正是计算机视觉领域快速创新的缩影。 YOLOv5Ultralytics发布,通过极具用户友好的API和强大的PyTorch ,使高性能目标检测技术触手可及,由此彻底革新了该领域。快进至2024年末, YOLO11 作为精炼的强大版本问世,它基于多年的用户反馈和架构改进,实现了卓越的效率和精度。

本比较探讨了这两款标志性模型在技术上的进步,帮助开发人员理解何时应维护旧系统,何时应升级至最新架构。

性能指标分析

YOLOv5 YOLO11 飞跃,最直观的YOLO11 它们在标准基准测试中的表现。YOLO11 重大优化,使其在保持或降低计算负荷的同时,实现了更高的平均精度均值(mAP)。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

主要内容

  • 精度提升:YOLO11n实现了惊人的39.mAP,远超YOLOv5n(28.0%mAP)。这使得最YOLO11 能够胜任复杂任务,而此类任务此前需要更大、更慢的模型才能处理。
  • 计算效率:尽管精度更高,YOLO11 通常所需浮点运算量更少。例如,YOLO11x在提供更优检测结果的同时,其浮点运算量比YOLOv5x减少约20%。
  • CPU : YOLO11 CPU ONNX 显著YOLO11 ,这对部署在树莓派等边缘设备上至关重要。

YOLO11:精炼的效率与多功能性

YOLO11 于2024年9月发布YOLO11 Ultralytics YOLO 迭代改进YOLO11 顶峰。该模型不仅用于基础检测,更支持统一的视觉管道,涵盖分割、姿势估计 定向边界框姿势估计 (旋转框检测)。

技术规格:

架构亮点

YOLO11 C3k2模块,这是对优化梯度流的交叉阶段局部(CSP)瓶颈结构的改进版本。 此外,其检测头采用C2PSA(带空间注意力的跨阶段局部检测)技术,显著增强了模型在杂乱场景中聚焦关键特征的能力。YOLOv5 YOLO11 无锚框架构,通过免除特定数据集的锚框计算需求,简化了训练流程,从而获得更强的泛化能力。

为什么选择YOLO11?

YOLO11 大多数新型商业应用的首选方案。其兼具高精度(mAP)与低资源消耗的特性,使其成为零售、智慧城市及医疗保健领域实时分析的理想选择。

了解更多关于 YOLO11 的信息

YOLOv5:行业标准

YOLOv52020年中发布,为人工智能行业的易用性树立了标杆。该模型首次实现了在单个代码库内无缝完成"训练、验证、部署"的全流程操作,奠定了Ultralytics 用户为中心的开发理念Ultralytics

技术规格:

架构亮点

YOLOv5采用CSPDarknet主干网络 YOLOv5 属于锚点检测器。尽管锚点方法效果显著,但其对边界框尺寸的超参数调优较为敏感。尽管问世已久YOLOv5 可靠的主力框架,尤其适用于因旧硬件或特定软件认证限制而需沿用旧版框架的项目场景。

了解更多关于 YOLOv5

建筑差异与培训

生态系统与易用性

这两种模型最显著的优势之一在于它们Ultralytics 深度集成。无论您使用的是YOLOv5 YOLO11,都能受益于统一的API接口、详尽的文档支持,以及对TensorRT、OpenVINO等格式无缝模型导出的全面支持。

YOLO11 得益于在 ultralytics Python ,提供与诸如 Ultralytics Platform 用于云端培训和数据集管理。

训练效率

YOLO11 凭借其改进的架构和损失函数,在训练过程中YOLO11 收敛更快。其内存需求也经过高度优化。与需要大量显存的大型transformer 不同YOLO11 及YOLOv5)可在消费级GPU上高效训练。

Ultralytics Python 训练YOLO11 的方法:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset
# fast, efficient, and low-memory usage
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

多功能性

YOLOv5 在其生命周期后期YOLOv5 更新以支持分割和分类, YOLO11 从设计之初就针对这些任务而构建。若您的项目需要在目标检测实例分割姿势估计 定向边界框旋转框检测之间切换 YOLO11 所有这些模态YOLO11 更统一、更高性能的体验

结论:选用哪种模型?

对于当今绝大多数启动项目的用户而言, YOLO11 无疑是最佳选择。它提供了"免费午餐"般的改进:在不增加复杂性的前提下,实现了更高的精度和相近甚至更快的速度。YOLOv5 研究和旧系统维护的优秀参考基准,但在与现代架构的纯指标对比中已显落后。

尖端技术:YOLO26

若您正在寻找计算机视觉领域的绝对前沿技术(截至2026年1月),建议您深入探索YOLO26

YOLO11 的基础上进行了YOLO11 端到端NMS(非最大抑制)设计,消除了后处理中非最大抑制的必要性。这使得部署更为简便,推理速度更快,尤其在CPU边缘设备上表现突出。凭借MuSGD 优化器和ProgLoss等创新技术,YOLO26 CPU 较前代提升高达43%

了解更多关于 YOLO26 的信息

其他值得探索的模型

  • RT-DETR: 一种transformer探测器,在实时速度要求不高的情况下具有卓越的精度表现。
  • YOLO:专为开放词汇检测设计,适用于需要detect 训练数据集中未出现detect 场景。

评论