跳至内容

Ultralytics YOLO11

概述

YOLO11 是实时物体探测器系列的最新迭代产品。 UltralyticsYOLO YOLO11 是实时物体检测器系列中的最新产品,它以最先进的精度、速度和效率重新定义了可能实现的目标。YOLO11 在之前YOLO 版本令人印象深刻的进步基础上,对架构和训练方法进行了重大改进,使其成为广泛的计算机视觉任务的多功能选择。

Ultralytics YOLO11 对比图



观看: 如何使用Ultralytics YOLO11 进行物体检测和跟踪 | 如何进行基准测试 | YOLO11 已发布🚀

主要功能

  • 增强型特征提取:YOLO11 采用了改进的主干和颈部架构,增强了特征提取能力,可实现更精确的目标检测和复杂任务性能。
  • 优化效率和速度:YOLO11 引入了完善的架构设计和优化的训练管道,提供更快的处理速度,并在精度和性能之间保持最佳平衡。
  • 参数更少,精度更高:随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的平均精度(mAP),同时使用的参数比YOLOv8m 减少了 22%,从而在不影响精度的情况下提高了计算效率。
  • 跨环境适应性:YOLO11 可以在各种环境中无缝部署,包括边缘设备、云平台和支持NVIDIA GPU 的系统,确保最大的灵活性。
  • 支持的任务范围广泛:无论是对象检测、实例分割、图像分类、姿态估计,还是面向对象检测 (OBB),YOLO11 都能应对各种计算机视觉挑战。

支持的任务和模式

YOLO11 以YOLOv8 中推出的多功能型号系列为基础,为各种计算机视觉任务提供更强的支持:

模型文件名任务推论验证培训出口
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt检测
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt实例分割
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt姿势/关键点
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt定向检测
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt分类

本表概述了 YOLO11 模型的各种变体,展示了它们在特定任务中的适用性以及与推理、验证、训练和输出等操作模式的兼容性。这种灵活性使 YOLO11 适用于计算机视觉领域的各种应用,从实时检测到复杂的分割任务。

性能指标

性能

有关在COCO 上训练的这些模型的使用示例,请参见检测文档,其中包括 80 个预先训练的类别。

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

有关在COCO 上训练的这些模型的使用示例,请参阅 "分割文档",其中包括 80 个预先训练的类别。

模型尺寸
(像素)
mAPbox
50-95
mAPmask
50-95
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.910.4
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.135.5
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4123.3
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6142.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1319.0

有关在ImageNet 上训练的这些模型的使用示例,请参见分类文档,其中包括 1000 个预训练的类别。

模型尺寸
(像素)
acc
top1
acc
top5
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B) 在 640
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.01.63.3
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.05.512.1
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.010.439.3
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.012.949.4
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.028.4110.4

有关在COCO 上训练的这些模型的使用示例,请参见姿势估计文档,其中包括一个预训练类别 "人"。

模型尺寸
(像素)

50-95
mAPpose
50
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.6
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.2
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.7
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.290.7
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8203.3

有关在DOTAv1 上训练的这些模型的使用示例,请参见定向检测文档,其中包括 15 个预先训练的类别。

模型尺寸
(像素)
mAPtest
50
速度
CPU ONNX
(毫秒)
速度
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.717.2
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.5
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9183.5
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.2232.0
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8520.2

使用示例

本节提供简单的 YOLO11 训练和推理示例。有关这些模式和其他模式的完整文档,请参阅PredictTrainValExport文档页面。

请注意,下面的示例是用于对象检测的 YOLO11Detect模型。有关其他支持的任务,请参阅 "分割"、"分类"、"OBB"和 "姿势"文档。

示例

PyTorch 训练有素 *.pt 模型以及配置 *.yaml 文件可以传递给 YOLO() 类在Python 中创建模型实例:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI 命令可直接运行模型:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

引用和致谢

Ultralytics YOLO11 出版物

Ultralytics 由于模型的快速发展,YOLO11 还没有发表正式的研究论文。我们专注于推进技术发展,使其更易于使用,而不是制作静态文档。有关YOLO 架构、功能和使用方法的最新信息,请参阅我们的GitHub 存储库文档

如果您在工作中使用了 YOLO11 或本资源库中的任何其他软件,请使用以下格式引用:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

请注意,DOI 尚未确定,一旦确定,将添加到引文中。YOLO11 模型以 AGPL-3.0企业许可证提供。

常见问题

Ultralytics YOLO11 与以前的版本相比有哪些主要改进?

Ultralytics 与前代产品相比,YOLO11 引入了多项重大改进。主要改进包括

  • 增强型特征提取:YOLO11 采用了改进的骨干和颈部结构,增强了特征提取能力,从而实现更精确的目标检测。
  • 优化的效率和速度:经过改进的架构设计和优化的训练管道可提供更快的处理速度,同时保持准确性和性能之间的平衡。
  • 参数更少,精度更高:与YOLOv8m 相比,YOLO11m 在 COCO 数据集上实现了更高的平均精确度(mAP),而参数数量却减少了 22%,这使其在不影响精确度的前提下提高了计算效率。
  • 跨环境适应性:YOLO11 可在各种环境中部署,包括边缘设备、云平台和支持NVIDIA GPU 的系统。
  • 支持的任务范围广泛:YOLO11 支持多种计算机视觉任务,如对象检测、实例分割、图像分类、姿态估计和面向对象检测 (OBB)。

如何训练用于物体检测的 YOLO11 模型?

可以使用Python 或CLI 命令来训练用于物体检测的 YOLO11 模型。以下是两种方法的示例:

示例

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

有关更详细的说明,请参阅Train文档。

YOLO11 型号可以执行哪些任务?

YOLO11 型号用途广泛,可支持各种计算机视觉任务,包括

  • 物体检测:识别和定位图像中的物体。
  • 实例分割:检测对象并划定其边界。
  • 图像分类将图像分为预定义的类别。
  • 姿势估计:检测和跟踪人体关键点
  • 定向物体检测 (OBB):以旋转方式检测物体,精度更高。

有关各项任务的更多信息,请参阅检测实例分割分类姿势估计定向检测文档。

YOLO11 如何以更少的参数实现更高的精度?

YOLO11 通过改进模型设计和优化技术,以更少的参数实现了更高的精度。改进后的架构可实现高效的特征提取和处理,从而在 COCO 等数据集上实现更高的平均精度(mAP),同时使用的参数比YOLOv8m 少 22%。这使得 YOLO11 在不影响精度的情况下提高了计算效率,适合部署在资源受限的设备上。

YOLO11 可以在边缘设备上部署吗?

是的,YOLO11 专为适应包括边缘设备在内的各种环境而设计。其优化的架构和高效的处理能力使其适合部署在边缘设备、云平台和支持NVIDIA GPU 的系统上。这种灵活性确保 YOLO11 可用于各种应用,从移动设备上的实时检测到云环境中的复杂分割任务。有关部署选项的更多详情,请参阅导出文档。

📅创建于 1 个月前 ✏️已更新 13 天前

评论