跳至内容

Ultralytics YOLO11 模式

Ultralytics YOLO 生态系统和集成

导言

Ultralytics YOLO11 不只是另一种对象检测模型;它是一个多功能框架,旨在覆盖机器学习模型的整个生命周期--从数据摄取和模型训练到验证、部署和实际跟踪。每种模式都有特定的用途,其设计旨在为您提供不同任务和用例所需的灵活性和效率。



观看: Ultralytics 模式教程:训练、验证、预测、输出和基准。

模式一览

了解Ultralytics YOLO11 支持的不同模式对于最大限度地利用您的模型至关重要:

  • 训练模式:在自定义或预载数据集上对模型进行微调。
  • Val模式:用于验证模型性能的训练后检查点。
  • 预测模式:释放模型对真实世界数据的预测能力。
  • 导出模式:让您的模型以各种格式部署就绪
  • 跟踪模式:将物体检测模式扩展到实时跟踪应用中。
  • 基准模式:在不同的部署环境中分析模型的速度和准确性。

本综合指南旨在为您提供每种模式的概述和实用见解,帮助您充分发挥YOLO11 的潜力。

火车

训练模式用于在自定义数据集上训练YOLO11 模型。在该模式下,模型使用指定的数据集和超参数进行训练。训练过程包括优化模型参数,使其能够准确预测图像中物体的类别和位置。要创建能够识别与应用相关的特定对象的模型,训练是必不可少的。

列车示例

瓦尔

Val 模式用于在YOLO11 模型训练完成后对其进行验证。在该模式下,模型在验证集上进行评估,以衡量其准确性和泛化性能。验证有助于识别过度拟合等潜在问题,并提供平均精度(mAP) 等指标来量化模型性能。该模式对于调整超参数和提高模型的整体有效性至关重要。

Val 示例

预测

预测模式用于使用训练有素的YOLO11 模型对新图像或视频进行预测。在该模式下,模型从检查点文件加载,用户可以提供图像或视频来执行推理。该模型可以识别和定位输入媒体中的对象,从而为实际应用做好准备。预测模式是应用训练有素的模型解决实际问题的入口。

预测示例

出口

导出模式用于将YOLO11 模型转换为适合在不同平台和设备上部署的格式。该模式可将PyTorch 模型转换为ONNX、TensorRT 或CoreML 等优化格式,以便在生产环境中进行部署。导出对于将模型与各种软件应用程序或硬件设备集成至关重要,通常能显著提高性能。

出口示例

轨道

跟踪模式扩展了YOLO11 的物体检测功能,可在视频帧或实时流中跟踪物体。该模式对于需要持续识别对象的应用(如监控系统自动驾驶汽车)尤为重要。跟踪模式采用了复杂的算法(如 ByteTrack),即使物体暂时从视图中消失,也能跨帧保持物体身份。

轨道示例

基准

基准模式剖析YOLO11 各种导出格式的速度和准确性。该模式提供了有关模型大小、准确性(检测任务的 mAP50-95 或分类的 accuracy_top5)以及不同格式(如ONNX)推理时间的综合指标、 OpenVINO和TensorRT 等不同格式的推理时间。基准测试可帮助您根据部署环境中对速度和准确性的具体要求选择最佳导出格式。

基准范例

常见问题

如何使用Ultralytics YOLO11 训练自定义对象检测模型?

使用Ultralytics YOLO11 训练自定义对象检测模型需要使用训练模式。您需要一个YOLO 格式的数据集,其中包含图像和相应的注释文件。使用以下命令启动训练过程:

示例

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

有关更详细的说明,请参阅Ultralytics Train Guide

Ultralytics YOLO11 使用什么指标来验证模型的性能?

Ultralytics YOLO11 在验证过程中使用各种指标来评估模型性能。这些指标包括

  • mAP(平均精度):用于评估物体检测的精确度。
  • IOU(Intersection over Union):测量预测边界框与地面实况边界框之间的重叠。
  • 精确度召回率:精确度衡量的是真阳性检测结果与检测到的阳性结果总数之比,而召回率衡量的是真阳性检测结果与实际阳性结果总数之比。

您可以运行以下命令开始验证:

示例

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

有关详细信息,请参阅《验证指南》

如何导出YOLO11 模型以供部署?

Ultralytics YOLO11 提供导出功能,可将训练好的模型转换成各种部署格式,如ONNX,TensorRT,CoreML 等。请使用下面的示例导出您的模型:

示例

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

每种导出格式的详细步骤可参阅《导出指南》

Ultralytics YOLO11 中的基准模式有何作用?

Ultralytics YOLO11 中的基准模式用于分析速度和 精确度 它提供了各种导出格式,如ONNX 、TensorRT 和OpenVINO 。它提供了模型大小等指标、 mAP50-95 在不同的硬件设置中,您可以选择最合适的格式来进行对象检测和推理时间,从而帮助您选择最适合您部署需求的格式。

示例

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

有关详细信息,请参阅《基准指南》

如何使用Ultralytics YOLO11 执行实时目标跟踪?

使用Ultralytics YOLO11 中的跟踪模式可实现实时目标跟踪。该模式扩展了对象检测功能,可跨视频帧或实时馈送跟踪对象。使用以下示例启用跟踪功能:

示例

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

有关深入说明,请访问《轨道指南》。

📅创建于 1 年前 ✏️已更新 4 天前

评论