跳转至内容

YOLOv5 vs YOLO11:全面的技术比较

在为新项目选择合适的计算机视觉架构时,理解尖端模型的演进历程至关重要。从早期架构到现代统一框架的发展历程,彰显了算法效率与开发者体验的重大飞跃。本指南将深入对比Ultralytics的两款里程碑式模型:开创YOLOv5 高度优化的YOLO11。

模型介绍

这两种架构均代表了实时物体检测领域的重要里程碑,根据您的部署环境和遗留系统要求,它们各自具备显著优势。

YOLOv5:行业主力

YOLOv5 OLOv5于2020年夏季发布,凭借其原生支持 PyTorch 实现,大幅降低了训练和部署的门槛。它摒弃了前代复杂的Darknet C框架,以符合Python风格的方式构建模型。

YOLOv5 易用性的强大基准,并引入了强大的训练方法,包括先进的马赛克数据增强和自动锚点技术。凭借其文档完善、经过大量测试的代码库,该模型在研究人员中依然广受欢迎。

了解更多关于 YOLOv5

YOLO11:统一视觉框架

基于多年的用户反馈与架构研究YOLO11 作为统一框架的一部分YOLO11 能够原生处理多种视觉任务。它不仅突破了边界框的局限,更从零开始设计,以实现最大程度的多功能性和高效性。

YYOLO11 通过 ultralytics Python 拥有一个统一的简单API 对象检测实例分割、分类、姿势估计 以及定向边界框旋转框检测。该模型在速度与精度之间实现了高度优化的权衡,使其成为各类实际部署场景的理想选择。

了解更多关于 YOLO11 的信息

集成平台

两种模型均受益Ultralytics 提供的完善生态系统。该集成环境简化了数据集标注、云端训练以及跨多种硬件目标的模型导出流程。

性能与指标对比

通过直接对比这些模型,可清晰展现架构优化如何转化为切实的性能提升。下表展示了COCO 测得的平均精确率(mAP)均值,同时CPU GPU 速度及参数数量。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

分析结果

这些指标凸显了YOLO11在性能平衡方面取得的显著飞跃。例如,YOLO11n(nano)模型实现了39.5mAP YOLOv5nmAP 28.0%,同时通过ONNX导出时还显著缩短了CPU 时间。 ONNX时,YOLO11 推理时间反而有所缩短。此外,相较于庞大的transformer YOLO11 在训练阶段对内存YOLO11 显著YOLO11 ,使其能够轻松部署于消费级硬件和边缘设备上。

架构差异

YOLO11 性能提升YOLO11 若干关键架构演进。YOLOv5 标准CSPNet主干网络搭配C3模块,而YOLO11 更高效的特征提取模块,如C2f及后续的C3k2,这些模块优化了梯度流并降低了计算开销。

YOLO11 高度优化的检测头。与早期模型的锚点设计不同,Ultralytics 采用无锚点方案。这减少了边界框预测数量,简化了后处理流程,并提升了模型在不同尺度和宽高比下的泛化能力。此外,这些模型具备卓越的训练效率,且预训练权重可直接获取,能显著加速精细化数据集的收敛过程。

实现与代码示例

Ultralytics 突出特点之一在于其简洁性。YOLOv5 torch.hub 为实现快速推理,YOLO11 通过统一架构YOLO11 ultralytics Python包。

使用YOLO11进行训练

加载、训练和验证模型只需极少的模板代码。API无缝处理超参数调优和模型管理。

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")

# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")

基于YYOLOv5v5的遗传推断

若您正在维护旧版管道YOLOv5 直接PyTorch加载机制,使其能轻松嵌入现有推理脚本。

import torch

# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")

# Print prediction details to the console
results.print()

部署灵活性

两种模型均支持丰富的导出格式。无论您是针对NVIDIA TensorRT ,还是CoreML iOS 其部署流程均有详尽文档记录,并获得社区支持。

理想用例

选择这些模型主要取决于项目的生命周期阶段和具体需求。

何时选择 YOLOv5

  • 维护遗留代码库:若您的生产环境围绕YOLOv5 结构或特定超参数演化技术进行了深度定制。
  • 学术基准线:当发表的研究需要直接参照2020-2022年计算机视觉领域既定标准进行基准测试时。

何时选择 YOLO11

  • 多任务项目:当您的应用程序需要通过单一统一的API同时姿势估计 实例分割等混合任务时。
  • 边缘部署:适用于边缘计算场景,在给定计算预算(FLOPs)mAP 实现最大mAP 输出至关重要。
  • 商用人工智能解决方案:专为零售与安防领域的企业应用打造,Ultralytics 强大支持。

下一代:Ultralytics

尽管YOLO11 在速度与精度之间YOLO11 绝佳平衡,但人工智能领域正日新月异地发展。对于今日启动新项目的开发者,我们强烈建议探索视觉人工智能领域的最新标准: Ultralytics

YOLO26于2026年1月发布,引入了专门针对现代部署需求设计的范式转变性创新:

  • 端到NMS:基于YOLOv10提出的概念,YOLOv26实现了原生端到端架构。该设计消除了对非最大抑制(NMS)后处理的需求,显著简化了部署流程并降低了延迟。
  • MuSGD优化器:受Moonshot AI旗下Kimi K2等模型在LLM训练领域的创新启发,这种结合了SGD 混合算法确保了训练过程的极致稳定性,并实现了显著加速的收敛速度。
  • CPU :通过移除分布式焦点损失(DFL),YOLO26实现了高达43CPU 加速,使其成为边缘设备及无专用GPU环境的绝对首选方案。
  • 先进损失函数:ProgLoss与STAL的融合显著提升了小目标识别性能,这对无人机分析、物联网及机器人技术至关重要。
  • 任务特异性增强:引入了专业化优化方案,例如用于姿势估计 残差对数似然估计(RLE)姿势估计 面向定向边界框的专用角度损失函数,确保在所有计算机视觉任务中实现卓越性能。

了解更多关于 YOLO26 的信息

对于有兴趣探索标准目标检测之外的专用架构的用户,您还可以尝试研究诸如 RT-DETR (transformer检测模型),或YOLO(用于开放词汇跟踪与检测)。采用这些维护完善、高度优化的工具,可确保计算机视觉管道保持高效、可扩展且始终走在技术前沿。


评论