跳转至内容

YOLOv5 vs YOLO11:全面的技术比较

为新项目选择合适的计算机视觉架构时,了解最先进模型的发展至关重要。从早期架构到现代统一框架的演进,凸显了算法效率和开发者体验方面的显著飞跃。本指南对Ultralytics开发的两个里程碑式模型:开创性的YOLOv5和高度优化的YOLO11,进行了深入的技术比较。

模型介绍

这两种架构都代表了实时目标检测领域的重要里程碑,可根据您的部署环境和遗留需求提供独特的优势。

YOLOv5:行业主力

YOLOv5于2020年夏季发布,凭借其原生的PyTorch实现迅速成为行业标准,大幅降低了训练和部署的入门门槛。它摆脱了其前身复杂的Darknet C框架,提供了Python风格的模型构建方法。

YOLOv5 为易用性建立了坚实的基础,并引入了强大的训练方法,包括先进的 mosaic 数据增强和自动锚框。它仍然受到研究人员的极大欢迎,他们基于一个文档完善、经过大量测试的代码库进行开发。

了解更多关于 YOLOv5

YOLO11:统一视觉框架

在多年的反馈和架构研究基础上,YOLO11作为一个统一框架的一部分被引入,能够原生处理多个视觉任务。它超越了仅仅是边界框,从头开始设计,旨在实现最大的多功能性和效率。

YOLO11 通过 提供精简的用户体验 ultralytics Python 包,拥有一个统一...的简单 API 对象检测、实例分割、分类、姿势估计和旋转框检测 (OBB)。它在速度和精度之间实现了高度有利的权衡,使其成为各种实际部署场景的理想选择。

了解更多关于 YOLO11 的信息

集成平台

这两种模型都受益于 Ultralytics Platform 提供的良好维护的生态系统。这个集成环境简化了数据集标注、云端训练以及跨各种硬件目标的模型导出。

性能与指标比较

对这些模型的直接比较揭示了架构改进如何转化为切实的性能提升。下表说明了在COCO 数据集上评估的平均精度均值 (mAP),以及 CPU 和 GPU 推理速度和参数数量。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

分析结果

这些指标突显了YOLO11在性能平衡方面取得的显著飞跃。例如,YOLO11n(nano)模型实现了39.5%的mAP,而YOLOv5n为28.0%,同时通过ONNX导出时,显著降低了CPU推理时间。此外,与基于Transformer的大型模型相比,YOLO11在训练过程中保持了显著更低的内存需求,使其在消费级硬件和边缘设备上部署变得高度可行。

架构差异

YOLO11 的性能提升源于几个关键的架构演进。YOLOv5 采用了带有 C3 模块的标准 CSPNet 主干网络,而 YOLO11 则引入了更高效的特征提取模块,如 C2f 和后来的 C3k2,这些模块优化了梯度流并降低了计算开销。

YOLO11还具有高度优化的头部。新的Ultralytics架构摒弃了旧模型的基于锚点的设计,采用了无锚点方法。这减少了边界框预测的数量,简化了后处理流程,并提高了模型在不同尺度和长宽比下的泛化能力。此外,这些模型拥有卓越的训练效率和现成的预训练权重,可加速微调数据集的收敛。

实现与代码示例

Ultralytics 生态系统最突出的特点之一是其简洁性。虽然 YOLOv5 普及了...的使用 torch.hub 为了快速推理,YOLO11 通过统一的架构更进一步 ultralytics Python包。

使用 YOLO11 进行训练

加载、训练和验证模型仅需最少的样板代码。API可无缝处理超参数调优和模型管理。

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")

# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")

YOLOv5的传统推理

如果您正在维护一个较旧的管道,YOLOv5 直接与 PyTorch 的原生加载机制集成,使其可以轻松地集成到现有的推理脚本中。

import torch

# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")

# Print prediction details to the console
results.print()

部署灵活性

两种模型都支持广泛的导出格式。无论您是使用TensorRT针对NVIDIA Jetson,还是使用CoreML针对iOS应用程序,部署过程都经过详尽的文档说明并得到社区支持。

理想用例

在这些模型之间进行选择主要取决于您项目的生命周期阶段和具体要求。

何时选择 YOLOv5

  • 维护遗留代码库:如果您的生产环境围绕 YOLOv5 仓库结构或特定的超参数进化技术进行了大量定制。
  • Academic Baselines: 当发表需要直接基准测试已建立的 2020-2022 年计算机视觉标准的研究时。

何时选择 YOLO11

  • 多任务项目:当您的应用程序需要混合任务,例如姿势估计实例分割,并使用单一统一API时。
  • 边缘部署:适用于边缘计算场景,在这些场景中,在给定计算预算(FLOPs)下尽可能提高mAP至关重要。
  • 商业 AI 解决方案:非常适合零售和安全领域的企业应用,充分利用 Ultralytics Platform 的强大支持。

下一代:Ultralytics YOLO26

尽管 YOLO11 代表了速度和准确性的绝佳平衡,但人工智能领域发展迅速。对于今天开始新项目的开发者,我们强烈建议探索视觉 AI 领域的最新标准:Ultralytics YOLO26

YOLO26于2026年1月发布,引入了专为现代部署需求设计的范式转变的进步:

  • 端到端免NMS设计:基于YOLOv10率先提出的概念,YOLO26原生支持端到端。它消除了对非极大值抑制(NMS)后处理的需求,显著简化了部署流程并降低了延迟。
  • MuSGD 优化器:受月之暗面 Kimi K2 等模型 LLM 训练创新启发,这种 SGD 和 Muon 的混合方案确保极高的训练稳定性和显著更快的收敛速度。
  • 前所未有的 CPU 速度:通过移除 Distribution Focal Loss (DFL),YOLO26 实现了高达 43% 更快的 CPU 推理速度,使其成为边缘设备和没有专用 GPU 环境的绝对最佳选择。
  • 高级损失函数:ProgLoss 和 STAL 的集成在小目标识别方面取得了显著改进,这对于无人机分析、物联网和机器人技术至关重要。
  • 任务特定增强: 它引入了专门的优化,例如用于姿势估计的残差对数似然估计 (RLE) 和用于旋转框的专用角度损失,确保在所有计算机视觉任务中都具有卓越性能。

了解更多关于 YOLO26 的信息

对于对标准目标 detect 之外的专业架构感兴趣的用户,您还可以探索RT-DETR等模型用于基于 Transformer 的 detect,或YOLO-World用于开放词汇 track 和 detect。采用这些维护良好、高度优化的工具可确保您的计算机视觉管道保持高效、可扩展并领先一步。


评论