有关在COCO 上训练的这些模型的使用示例,请参阅 "分割文档",其中包括 80 个预先训练的类别。
模型 | 尺寸 (像素) | mAPbox 50-95 | mAPmask 50-95 | 速度 CPU ONNX (毫秒) | 速度 T4TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
有关在ImageNet 上训练的这些模型的使用示例,请参见分类文档,其中包括 1000 个预训练的类别。
模型 | 尺寸 (像素) | acc top1 | acc top5 | 速度 CPU ONNX (毫秒) | 速度 T4TensorRT10 (ms) | params (M) | FLOPs (B) 在 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
有关在COCO 上训练的这些模型的使用示例,请参见姿势估计文档,其中包括一个预训练类别 "人"。
模型 | 尺寸 (像素) | 50-95 | mAPpose 50 | 速度 CPU ONNX (毫秒) | 速度 T4TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
有关在DOTAv1 上训练的这些模型的使用示例,请参见定向检测文档,其中包括 15 个预先训练的类别。
模型 | 尺寸 (像素) | mAPtest 50 | 速度 CPU ONNX (毫秒) | 速度 T4TensorRT10 (ms) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
本节提供简单的 YOLO11 训练和推理示例。有关这些模式和其他模式的完整文档,请参阅Predict、Train、Val 和Export文档页面。
请注意,下面的示例是用于对象检测的 YOLO11Detect模型。有关其他支持的任务,请参阅 "分割"、"分类"、"OBB"和 "姿势"文档。
示例
PyTorch 训练有素 *.pt
模型以及配置 *.yaml
文件可以传递给 YOLO()
类在Python 中创建模型实例:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI 命令可直接运行模型:
Ultralytics YOLO11 出版物
Ultralytics 由于模型的快速发展,YOLO11 还没有发表正式的研究论文。我们专注于推进技术发展,使其更易于使用,而不是制作静态文档。有关YOLO 架构、功能和使用方法的最新信息,请参阅我们的GitHub 存储库和文档。
如果您在工作中使用了 YOLO11 或本资源库中的任何其他软件,请使用以下格式引用:
请注意,DOI 尚未确定,一旦确定,将添加到引文中。YOLO11 模型以 AGPL-3.0和企业许可证提供。
Ultralytics 与前代产品相比,YOLO11 引入了多项重大改进。主要改进包括
可以使用Python 或CLI 命令来训练用于物体检测的 YOLO11 模型。以下是两种方法的示例:
示例
有关更详细的说明,请参阅Train文档。
YOLO11 型号用途广泛,可支持各种计算机视觉任务,包括
有关各项任务的更多信息,请参阅检测、实例分割、分类、姿势估计和定向检测文档。
YOLO11 通过改进模型设计和优化技术,以更少的参数实现了更高的精度。改进后的架构可实现高效的特征提取和处理,从而在 COCO 等数据集上实现更高的平均精度(mAP),同时使用的参数比YOLOv8m 少 22%。这使得 YOLO11 在不影响精度的情况下提高了计算效率,适合部署在资源受限的设备上。
是的,YOLO11 专为适应包括边缘设备在内的各种环境而设计。其优化的架构和高效的处理能力使其适合部署在边缘设备、云平台和支持NVIDIA GPU 的系统上。这种灵活性确保 YOLO11 可用于各种应用,从移动设备上的实时检测到云环境中的复杂分割任务。有关部署选项的更多详情,请参阅导出文档。