Ultralytics YOLO11
概述
YOLO11 是 UltralyticsYOLO 是实时物体检测器系列中的最新产品,以最先进的精度、速度和效率重新定义了可能实现的目标。在之前YOLO 版本令人印象深刻的进步基础上,YOLO11 在架构和训练方法上进行了重大改进,使其成为广泛的计算机视觉任务的多功能选择。
Ultralytics YOLO11 🚀 Podcast generated by NotebookLM
观看: 如何使用Ultralytics YOLO11 进行目标检测和跟踪 | 如何进行基准测试 |YOLO11 已发布🚀
主要功能
- 增强型特征提取: YOLO11 采用改进的骨干和颈部架构,增强了特征提取能力,从而实现更精确的目标检测和复杂任务性能。
- 优化效率和速度: YOLO11 引入了完善的架构设计和优化的训练管道,提供更快的处理速度,并在准确性和性能之间保持最佳平衡。
- 参数更少,精度更高:随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的平均精度(mAP),同时使用的参数比YOLOv8m 减少了 22%,从而在不影响精度的情况下提高了计算效率。
- 跨环境适应性: YOLO11 可在各种环境中无缝部署,包括边缘设备、云平台和支持NVIDIA GPU 的系统,确保最大的灵活性。
- 支持的任务范围广泛:无论是对象检测、实例分割、图像分类、姿态估计,还是面向对象检测 (OBB),YOLO11 都能应对各种计算机视觉挑战。
支持的任务和模式
YOLO11 YOLOv8 中推出的多功能型号系列的基础上,为各种计算机视觉任务提供更强的支持:
模型 | 文件名 | 任务 | 推论 | 验证 | 培训 | 出口 |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
检测 | ✅ | ✅ | ✅ | ✅ |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
实例分割 | ✅ | ✅ | ✅ | ✅ |
YOLO11-姿势 | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
姿势/关键点 | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
定向检测 | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
分类 | ✅ | ✅ | ✅ | ✅ |
本表概述了YOLO11 模型的各种变体,展示了它们在特定任务中的适用性以及与推理、验证、训练和导出等操作模式的兼容性。这种灵活性使YOLO11 适用于计算机视觉领域的各种应用,从实时检测到复杂的分割任务。
性能指标
性能
有关在COCO 上训练的这些模型的使用示例,请参见检测文档,其中包括 80 个预先训练的类别。
模型 | 尺寸 (像素) |
mAPval 50-95 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
有关在COCO 上训练的这些模型的使用示例,请参阅 "分割文档",其中包括 80 个预先训练的类别。
模型 | 尺寸 (像素) |
mAPbox 50-95 |
mAPmask 50-95 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
有关在ImageNet 上训练的这些模型的使用示例,请参见分类文档,其中包括 1000 个预训练的类别。
模型 | 尺寸 (像素) |
acc top1 |
acc top5 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) at 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
有关在COCO 上训练的这些模型的使用示例,请参见姿势估计文档,其中包括一个预训练类 "人"。
模型 | 尺寸 (像素) |
50-95 |
mAPpose 50 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
有关在DOTAv1 上训练的这些模型的使用示例,请参见定向检测文档,其中包括 15 个预先训练的类别。
模型 | 尺寸 (像素) |
mAPtest 50 |
速度 CPU ONNX (毫秒) |
速度 T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
使用示例
本节提供了简单的YOLO11 训练和推理示例。有关这些模式和其他模式的完整文档,请参阅预测、训练、验证和导出文档页面。
请注意,下面的示例是YOLO11 Detect模型用于对象检测。有关其他支持的任务,请参阅 "分割"、"分类"、"OBB"和 "姿势"文档。
示例
PyTorch 训练有素 *.pt
模型以及配置 *.yaml
文件可以传递给 YOLO()
类在Python 中创建模型实例:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI 命令可直接运行模型:
引用和致谢
Ultralytics YOLO11 出版物
Ultralytics 由于模型的快速发展,YOLO11 还没有发表正式的研究论文。我们专注于推进技术发展,使其更易于使用,而不是制作静态文档。有关YOLO 架构、功能和使用方法的最新信息,请参阅我们的GitHub 存储库和文档。
如果您在工作中使用YOLO11 或本资源库中的任何其他软件,请使用以下格式引用:
请注意,DOI 尚未公布,一旦公布,将添加到引文中。YOLO11 模型是根据 AGPL-3.0和企业许可证提供。
常见问题
Ultralytics YOLO11 与以前的版本相比有哪些主要改进?
Ultralytics YOLO11 与前代产品相比,该版本有多项重大改进。主要改进包括
- 增强型特征提取: YOLO11 采用改进的骨干和颈部结构,增强了特征提取能力,从而实现更精确的目标检测。
- 优化的效率和速度:经过改进的架构设计和优化的训练管道可提供更快的处理速度,同时保持准确性和性能之间的平衡。
- 参数更少,精度更高:与YOLOv8m 相比,YOLO11m 在 COCO 数据集上实现了更高的平均精确度(mAP),而参数数量却减少了 22%,这使其在不影响精确度的前提下提高了计算效率。
- 跨环境适应性: YOLO11 可在各种环境中部署,包括边缘设备、云平台和支持NVIDIA GPU 的系统。
- 支持的任务范围广泛: YOLO11 支持多种计算机视觉任务,如物体检测、实例分割、图像分类、姿态估计和定向物体检测 (OBB)。
如何训练用于物体检测的YOLO11 模型?
使用Python 或CLI 命令可以训练YOLO11 模型进行物体检测。以下是两种方法的示例:
示例
有关更详细的说明,请参阅Train文档。
YOLO11 模型可以执行哪些任务?
YOLO11 模型用途广泛,可支持多种计算机视觉任务,包括
- 物体检测:识别和定位图像中的物体。
- 实例分割:检测对象并划定其边界。
- 图像分类:将图像分为预定义的类别。
- 姿势估计:检测和跟踪人体关键点
- 定向物体检测 (OBB):通过旋转来检测物体,精度更高。
有关各项任务的更多信息,请参阅检测、实例分割、分类、姿势估计和定向检测文档。
YOLO11 如何用更少的参数实现更高的精度?
YOLO11 通过对模型设计和优化技术的改进,该系统以更少的参数实现了更高的精度。改进后的架构可实现高效的特征提取和处理,从而在 COCO 等数据集上实现更高的平均精度(mAP),同时使用的参数比YOLOv8m 少 22%。这使得YOLO11 在不影响精度的情况下实现了计算效率,适合部署在资源受限的设备上。
YOLO11 可以部署在边缘设备上吗?
是的,YOLO11 设计用于适应各种环境,包括边缘设备。其优化的架构和高效的处理能力使其适合部署在边缘设备、云平台和支持NVIDIA GPU 的系统上。这种灵活性确保YOLO11 可用于各种应用,从移动设备上的实时检测到云环境中的复杂分割任务。有关部署选项的更多详情,请参阅导出文档。