跳转至内容

YOLOv5 与 YOLOv10:全面技术比较

实时计算机视觉领域在过去几年中呈指数级增长,各种架构不断突破现代硬件所能实现的界限。在评估最先进的架构时,YOLOv5YOLOv10之间的比较突显了目标检测领域的一个重要演进步骤。本次技术深入探讨了它们的架构范式、性能权衡以及开发者如何在生产环境中利用这些工具。

架构深度解析

了解这些模型之间的结构差异,对于在实际应用中高效部署它们至关重要。

Ultralytics YOLOv5:行业标准

由 Ultralytics 推出的 YOLOv5 长期以来一直以其在速度、准确性和易用性方面无与伦比的平衡而闻名。

了解更多关于 YOLOv5

YOLOv5依赖于基于锚点的detect机制,并结合了深度优化的CSPDarknet骨干网络。这种架构高度依赖几乎所有推理引擎都支持的标准操作,使其具有极高的通用性。其主要优势在于Ultralytics python SDK,它提供了精简的用户体验、简单的API和详尽的文档。此外,与基于Transformer的模型相比,YOLOv5的内存需求更低,这意味着它可以在消费级GPU上快速训练,而无需高昂的VRAM开销。

YOLOv10:范式演进

由清华大学的研究人员开发的 YOLOv10 旨在解决先前架构中存在的特定延迟瓶颈。

了解更多关于 YOLOv10

YOLOv10 的决定性特征是其原生的无 NMS(非极大值抑制)设计。通过在训练过程中使用一致的双重分配,该模型消除了推理时对 NMS 后处理的需求。这种理论上的延迟降低对于在配备强大 NVIDIA TensorRT 加速的高端硬件上运行的部署非常有益,尽管它可能为边缘设备带来结构上的复杂性。

生态系统优势

尽管YOLOv10提供了有趣的架构新颖性,但Ultralytics模型,如YOLOv5和更新的YOLO26,在Ultralytics Platform中得到原生支持,开箱即用地提供了卓越的训练效率、自动超参数演进和广泛的导出选项。

性能分析

比较这些模型时,准确性 (mAP) 与计算成本(延迟和参数)之间的平衡决定了最佳用例。下面是 COCO 数据集上的技术性能比较。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4 TensorRT10
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLOv10n64039.5-1.562.36.7
YOLOv10s64046.7-2.667.221.6
YOLOv10m64051.3-5.4815.459.1
YOLOv10b64052.7-6.5424.492.0
YOLOv10l64053.3-8.3329.5120.3
YOLOv10x64054.4-12.256.9160.4

YOLOv10明显实现了更高的 mAP50-95 在同等尺寸规模下,这得益于其现代化、效率与精度并重的模型设计。然而,YOLOv5保持了极具竞争力的延迟,尤其是在Nano和Small层级,使其在受限嵌入式环境中(例如)具有高度可靠性 NVIDIA Jetson 在线或通过标准CPU OpenVINO.

训练方法与生态系统

模型的价值与其周围的生态系统紧密相连。Ultralytics维护着一个极其完善的生态系统,支持广泛的任务。尽管YOLOv10严格专注于2D目标detect,但Ultralytics原生支持实例segment图像分类姿势估计旋转框检测 (OBB)

此外,训练Ultralytics模型所需的内存开销远低于基于Transformer的竞争方法,从而保持了开发周期的快速和成本效益。

无缝代码执行

模型的训练、验证和导出都统一在一个 API 下。您只需更改一个字符串即可在模型之间切换。

from ultralytics import YOLO

# Load a pre-trained YOLOv5 model for baseline testing
model_v5 = YOLO("yolov5s.pt")

# Load a YOLOv10 model for comparison
model_v10 = YOLO("yolov10s.pt")

# Train the model on the COCO8 dataset efficiently
results = model_v5.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    device="0",  # Automatically utilizes PyTorch CUDA acceleration
    batch=16,
)

# Export to ONNX for CPU inference deployment
model_v5.export(format="onnx", simplify=True)

应用场景与建议

在 YOLOv5 和 YOLOv10 之间做出选择,取决于您的具体项目需求、部署限制和生态系统偏好。

何时选择 YOLOv5

YOLOv5 是一个强有力的选择,适用于:

  • 成熟的生产系统:现有部署中,YOLOv5 长期以来稳定的 track 记录、全面的文档和庞大的社区支持备受重视。
  • 资源受限训练: 在 GPU 资源有限的环境中,YOLOv5 高效的训练流程和更低的内存需求具有优势。
  • 广泛的导出格式支持:项目需要部署到多种格式,包括ONNXTensorRTCoreMLTFLite

何时选择 YOLOv10

YOLOv10 推荐用于:

  • 免NMS的实时检测:受益于无需非极大值抑制的端到端检测,从而降低部署复杂性的应用。
  • 速度-精度平衡权衡:适用于需要在推理速度和 detect 精度之间取得良好平衡的各种模型规模的项目。
  • 一致延迟应用:部署场景中,可预测的推理时间至关重要,例如机器人技术或自主系统。

何时选择 Ultralytics (YOLO26)

对于大多数新项目,Ultralytics YOLO26 提供了性能和开发者体验的最佳组合:

  • 免NMS的边缘部署:需要一致的低延迟推理,且无需非极大值抑制后处理复杂性的应用。
  • 纯CPU环境:在没有专用GPU加速的设备上,YOLO26高达43%的CPU推理速度提升提供了决定性优势。
  • 小目标 detect:无人机航拍图像 或物联网传感器分析等挑战性场景中,ProgLoss 和 STAL 显著提高了微小目标的准确性。

未来:Ultralytics YOLO26

尽管YOLOv5彻底改变了可访问性,YOLOv10突破了无NMS架构的界限,但最先进的技术仍在不断发展。对于新项目,我们强烈推荐2026年1月发布的尖端Ultralytics YOLO26

YOLO26 将 Ultralytics 生态系统的可靠性与突破性进展融为一体:

  • 端到端免NMS设计:将免NMS范式直接整合到Ultralytics框架中,YOLO26简化了部署并保证了更低的延迟。
  • CPU推理速度提升高达43%:通过移除分布焦点损失(DFL),YOLO26在无GPU的边缘设备上速度显著提升。
  • MuSGD 优化器:受月之暗面(Moonshot AI)LLM 训练创新启发,MuSGD 优化器提供前所未有的稳定性和快速收敛。
  • ProgLoss + STAL: 这些新颖的损失函数显著提升了小目标识别能力,这对于无人机影像和机器人技术等领域至关重要。

您可以直接通过 Ultralytics Platform 管理、训练和部署 YOLO26。

结论

在 YOLOv5 和 YOLOv10 之间做出选择,通常取决于具体的项目限制。YOLOv10 为研究人员和利用原始 GPU 吞吐量的应用提供了出色的 mAP。相反,YOLOv5 对于标准部署而言,仍然是一个稳定可靠、兼容性强的“主力军”。

然而,计算机视觉领域是动态变化的。为了获得最佳的性能平衡、多功能性和易用性,开发者应关注Ultralytics YOLO26。它将免NMS推理的速度与稳健、文档齐全的Ultralytics生态系统相结合,确保您的视觉AI解决方案面向未来。对于特殊用例,开发者还可以探索YOLO11以获得通用稳健性,或RT-DETR以获得基于Transformer的精度。


评论