YOLO11 与 YOLOv10:实时目标检测器的一项全面技术比较
实时计算机视觉领域正在不断发展,新架构不断突破边缘设备和云基础设施的性能极限。在本次详细的技术分析中,我们将探讨该领域中两个关键模型之间的细微差别:Ultralytics YOLO11 和 YOLOv10。两种模型都代表了 目标 detect 能力的重大飞跃,但它们采用根本不同的架构理念来实现其性能。
YOLO11 架构解析
YOLO11 详情:
- 作者:Glenn Jocher 和 邱静
- 组织:Ultralytics
- 日期:2024-09-27
- GitHub: https://github.com/ultralytics/ultralytics
- 文档:https://docs.ultralytics.com/models/yolo11/
YOLO11作为一款多功能强大模型,建立在多年计算机视觉和人工智能基础研究之上。YOLO11的核心设计理念围绕着特征丰富性和在多个计算机视觉任务中的极致多功能性。
YOLO11 最突出的改进之一是 C3k2 模块 的实现。这个精炼的瓶颈模块优化了整个网络的梯度流,大幅提高了参数效率,同时保持了高 准确性。此外,YOLO11 采用了增强的空间注意力机制,这对于识别小型或部分遮挡的物体至关重要。这使其成为 航空影像用例 和详细 医学图像分析 的绝佳选择。
YOLO11 采用无锚点设计,最大限度地减少了超参数调优的复杂性,从而在大量自定义数据集上实现稳健的泛化能力。此外,与基于 Transformer 的架构相比,训练期间的内存需求显著降低,使研究人员能够在标准消费级硬件上高效训练大型模型。
探索 YOLOv10 架构
YOLOv10 详情:
- 作者: Ao Wang, Hui Chen, Lihao Liu, et al.
- 组织:清华大学
- 日期:2024-05-23
- Arxiv: https://arxiv.org/abs/2405.14458
- GitHub: https://github.com/THU-MIG/YOLOv10
- 文档:https://docs.ultralytics.com/models/yolov10/
由清华大学的研究人员开发的 YOLOv10 作为 YOLO 系列的端到端先驱引起了轰动。YOLOv10 的标志是其 免 NMS 训练 方法。通过在训练阶段采用一致的双重分配,模型自然地为每个对象预测一个边界框。这一突破完全消除了推理过程中对 非极大值抑制 (NMS) 的需求,而 NMS 是一个历史上在部署管道中引入延迟瓶颈的后处理步骤。
该架构还引入了整体的效率-精度设计策略。它结合了空间-通道解耦下采样和秩引导块设计,选择性地减少了网络阶段中的冗余。这使得FLOPs更少,计算开销降低,同时没有显著牺牲平均精度 (mAP)。对于分秒必争的实时应用,移除NMS提供了确定性推理图,非常适合边缘AI设备。
性能指标与基准
评估这两种模型时,我们着眼于准确性、参数数量和速度之间的平衡。下表展示了它们在 COCO 数据集上不同规模的表现。
| 模型 | 尺寸 (像素) | mAPval 50-95 | 速度 CPU ONNX (毫秒) | 速度 T4 TensorRT10 (毫秒) | 参数 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
正如在YOLO 性能指标中观察到的,YOLO11 的各个变体通常能实现略高的 mAP 分数,尤其是在大型模型中。YOLOv10 的无 NMS 设计确保了高度稳定的端到端推理时间,但当在 NVIDIA 硬件上使用 TensorRT 进行优化时,YOLO11 仍能实现出色的吞吐量。
为生产环境导出
在为部署准备模型时,导出为优化格式至关重要。YOLO11 和 YOLOv10 都可以使用 Ultralytics 框架无缝导出到 ONNX 和 TensorRT 等格式。有关分步说明,请参阅我们的模型部署选项指南。
Ultralytics 生态系统优势
尽管独立的性能指标很重要,但周围的框架决定了机器学习项目的实际成功。这正是 YOLO11 作为 Ultralytics 生态系统的原生成员真正出彩的地方。
Ultralytics 平台 提供极其流畅的用户体验。通过简单统一的 Python API,开发者可以处理超越基本边界框的任务。YOLO11 原生支持 实例分割、姿势估计、图像分类 和 旋转框检测 (OBB) 等开箱即用的 detect 功能。这种巨大的多功能性在专业研究存储库中通常是缺乏的。
此外,该生态系统拥有详尽的文档和活跃的社区支持。与Weights & Biases等工具(用于实验跟踪)以及OpenVINO(用于Intel硬件优化)的集成直接内置于库中。训练模型只需最少的样板代码,并受益于高效的训练过程,与RT-DETR等大型Transformer模型相比,所需的CUDA内存更少。
实战代码示例
Ultralytics 的训练和推理旨在尽可能直观。相同的 API 可轻松处理 YOLO11 和 YOLOv10。
from ultralytics import YOLO
# Initialize the model (YOLO11n or YOLOv10n)
model = YOLO("yolo11n.pt")
# Train the model efficiently on a custom dataset
# Ultralytics automatically handles hyperparameters and memory optimization
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)
# Run inference on an image
inference_results = model("https://ultralytics.com/images/bus.jpg")
# Display the detected objects
inference_results[0].show()
应用场景与建议
在YOLO11和YOLOv10之间选择取决于您具体的项目需求、部署限制和生态系统偏好。
何时选择 YOLO11
YOLO11 是以下场景的理想选择:
- 生产边缘部署:适用于Raspberry Pi或NVIDIA Jetson等设备上的商业应用,在这些应用中,可靠性和积极维护至关重要。
- 多任务视觉应用:在单个统一框架内需要detect、segmentation、姿势估计和obb的项目。
- 快速原型设计与部署:需要利用精简的Ultralytics Python API快速从数据收集过渡到生产的团队。
何时选择 YOLOv10
YOLOv10 推荐用于:
- 免NMS的实时检测:受益于无需非极大值抑制的端到端检测,从而降低部署复杂性的应用。
- 速度-精度平衡权衡:适用于需要在推理速度和 detect 精度之间取得良好平衡的各种模型规模的项目。
- 一致延迟应用:部署场景中,可预测的推理时间至关重要,例如机器人技术或自主系统。
何时选择 Ultralytics (YOLO26)
对于大多数新项目,Ultralytics YOLO26 提供了性能和开发者体验的最佳组合:
- 免NMS的边缘部署:需要一致的低延迟推理,且无需非极大值抑制后处理复杂性的应用。
- 纯CPU环境:在没有专用GPU加速的设备上,YOLO26高达43%的CPU推理速度提升提供了决定性优势。
- 小目标 detect:在 无人机航拍图像 或物联网传感器分析等挑战性场景中,ProgLoss 和 STAL 显著提高了微小目标的准确性。
下一代:YOLO26
尽管YOLOv10引入了革命性的NMS-free范式,且YOLO11完善了多任务通用性,但人工智能领域发展迅速。对于今天开始新生产部署的开发者,我们强烈推荐探索Ultralytics YOLO26。
YOLO26于2026年1月发布,融合了两者的优点。它原生采用了YOLOv10首创的端到端NMS-Free设计,极大地简化了部署流程并确保了稳定的延迟。此外,YOLO26还融入了专门的边缘计算优化。通过执行DFL移除(移除分布焦点损失),该架构保证了更易于导出,并实现了相比传统模型高达43%的CPU推理速度提升,使其成为低功耗物联网设备和移动应用的卓越选择。
YOLO26 还通过创新的MuSGD优化器(一种受尖端AI研究启发的混合优化器),将大型语言模型(LLM)的训练稳定性引入计算机视觉领域。结合ProgLoss + STAL损失函数,YOLO26 在小目标上实现了无与伦比的精度,这对于详细的交通视频检测和复杂的机器人自动化至关重要。
结论
选择合适的视觉模型取决于您具体的操作约束。YOLOv10在学术界是一个重要的里程碑,证明NMS可以从检测流程中有效消除。然而,为了在性能、全面的任务通用性和无缝部署工具之间取得卓越平衡,YOLO11提供了一个强大且企业级的解决方案。
对于追求绝对尖端技术——结合端到端简易性和极速边缘性能——的工程师而言,迁移到最新的YOLO26是最终的推荐。通过利用全面的Ultralytics Platform,您可以确保您的项目建立在维护良好、高效且面向未来的基础上。