跳转至内容

YOLOv5:Ultralytics 全面技术对比

选择合适的神经网络架构是任何计算机视觉项目中的关键决策。随着人工智能领域的不断演进,开发者和研究人员可用的工具也在持续更新。本指南将深入对比两款里程碑式模型——来自 Ultralytics 生态系统中的两款里程碑式模型——广受赞誉的YOLOv5 先进的YOLO11——进行深入的技术对比。

无论您是在边缘AI应用中部署轻量级模型,还是在云端GPU上处理高分辨率视频流,理解这些模型的架构细节、性能指标及理想应用场景,都能确保您根据具体部署限制做出数据驱动的选择。

模型谱系与技术细节

这两款模型均体现了Ultralytics开源协作、卓越性能和无与伦比易用性的承诺,因此深受全球机器学习社区的青睐。

YOLO11

了解更多关于 YOLO11 的信息

YOLOv5

了解更多关于 YOLOv5

架构差异

YOLOv5 YOLO11 的演进YOLO11 若干深刻的架构变革,旨在优化准确率与参数效率。

YOLOv5 PyTorch 生态系统中的开拓者,引入了高度优化的CSPNet(跨阶段部分网络)骨干网络和PANet(路径聚合网络)颈部结构。它依赖锚点检测技术,需要预定义的锚点框来预测物体边界。虽然效果显著,但针对特定计算机视觉数据集调整这些锚点可能相当繁琐。

相比之下YOLO11 更现代的无锚框检测范式。这消除了手动调整锚框的必要性,简化了训练流程,并提升了COCO 等多样化COCO 泛化能力。此外YOLO11 解耦式头部YOLO11 ,即分类任务与边界框回归任务在独立分支中处理。这种分离显著提升了收敛速度和平均精度均值(mAP),尤其在复杂目标检测场景中表现突出。

性能指标与基准

下表对比了不同模型规模的关键指标。Ultralytics 以其内存需求著称,在训练过程中通常比transformer大型transformer替代方案消耗更CUDA 这极大地降低了硬件门槛。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

如所观察YOLO11 高度优化的性能平衡,在参数数量与YOLOv5 相当的情况下,始终能提供更高的mAP 。

训练方法与可用性

Ultralytics 的核心宗旨在于提供卓越的易用性,并依托完善维护的生态系统和广泛的社区支持来实现这一目标。

YOLOv5 依赖于强大的命令行界面(CLI)脚本(train.py, detect.py) 用于执行。尽管功能强大,但将这些脚本直接集成到自定义Python 通常需要采取变通方案。

YOLO11 引入精简化的方法,YOLO11 这一领域。 ultralytics Python 。这个统一的 API 处理从训练到 导出模型 格式如 ONNX, OpenVINOTensorRT 原生支持。

借助Ultralytics 实现高效部署

要实现完全免编码的体验,开发者可利用Ultralytics 对数据进行标注,在云端训练模型,并将其无缝部署到边缘设备。

代码对比

如今Ultralytics 效率极高。以下YOLO11 Python 训练YOLO11 的方法:

from ultralytics import YOLO

# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")

# Train the model on custom data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)

# Export the model to ONNX for deployment
model.export(format="onnx")

对于使用YOLOv5的旧系统,通过CLI 进行训练CLI :

# Clone the repository and run the training script
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt

python train.py --img 640 --batch 16 --epochs 50 --data coco128.yaml --weights yolov5s.pt

理想使用场景与实际应用

两种型号各具优势,专为不同的操作环境量身定制。

何时使用YOLOv5

尽管新一代技术层出不穷YOLOv5 性能强劲的利器。强烈推荐用于:

  • 遗留系统集成:深度集成YOLOv5特定tensor 或部署管道的环境,难以进行重构。
  • 学术基线:研究人员需要建立长期稳定的基线,以确保医学图像分析领域可重复的学术研究。

何时使用YOLO11

YOLO11 凭借其非凡的多功能性,YOLO11 现代生产流程的理想之选:

展望未来:YOLO26架构

YOLO11 卓越标杆,计算机视觉领域仍持续快速发展。追求极致效率的开发者还应Ultralytics (2026年1月发布)。

YOLO26代表着巨大的飞跃,专为边缘优化和企业级规模而设计。关键创新包括:

  • 端到端NMS:YOLO26天生具备端到端特性,无需非最大抑制(NMS)后处理,实现更快速、更简便的部署。
  • DFL移除:为简化模型导出并增强低功耗设备兼容性,已移除分布式焦距损失。
  • MuSGD优化器:突破性融合SGD -学习的混合算法,为计算机视觉领域的大型语言模型训练提供稳定性,实现更快收敛。
  • 最高可提升43%CPU :针对物联网部署及无专用GPU的设备进行了深度优化。
  • ProgLoss + STAL:显著改进的损失函数,在小型物体识别方面取得重大突破,这对航空无人机影像至关重要。

了解更多关于 YOLO26 的信息

总结

YOLO11 YOLOv5 YOLO11 做出选择YOLOv5 取决于项目的生命周期阶段。YOLOv5传统地位无可争议,它具备极高的稳定性并获得庞大社区的支持。然而对于任何新项目而言, YOLO11 是优于旧版本的明智之选。它融合了尖端精度、极致优雅Python 以及更低的训练内存开销,巩固UltralyticsAI创新领域的领先地位。对于追求突破极限的用户,在Ultralytics 探索前沿的YOLO26将带来无与伦比的成果。


评论