Ultralytics YOLO26 模式

简介
Ultralytics YOLO26 不仅仅是另一个目标 detect 模型;它是一个多功能框架,旨在涵盖 机器学习 模型的整个生命周期——从数据摄取和模型训练到验证、部署和实际 track。每种模式都服务于特定的目的,旨在为您提供不同任务和用例所需的灵活性和效率。
观看: Ultralytics 模式教程:训练、验证、预测、导出和基准测试。
模式概览
了解 Ultralytics YOLO26 支持的不同模式对于充分利用您的模型至关重要:
- 训练 模式:在自定义或预加载的数据集上微调您的模型。
- 验证 模式:训练后的检查点,用于验证模型性能。
- 预测 模式:释放您的模型在真实世界数据中的预测能力。
- 导出 模式:以各种格式使您的 模型部署 准备就绪。
- 跟踪 模式:将您的对象检测模型扩展到实时跟踪应用程序。
- 基准测试 模式:分析您的模型在不同部署环境中的速度和准确性。
这份综合指南旨在为您提供每种模式的概述和实用见解,帮助您充分发挥YOLO26的潜力。
训练
训练模式用于在自定义数据集上训练YOLO26模型。在此模式下,模型使用指定的数据集和超参数进行训练。训练过程涉及优化模型的参数,使其能够准确预测图像中对象的类别和位置。训练对于创建能够识别与您的应用程序相关的特定对象的模型至关重要。
验证
验证模式用于在YOLO26模型训练后对其进行验证。在此模式下,模型在验证集上进行评估,以衡量其准确性和泛化性能。验证有助于识别潜在问题,例如过拟合,并提供平均精度 (mAP) 等指标来量化模型性能。此模式对于调整超参数和提高整体模型效率至关重要。
预测
预测模式用于使用训练好的YOLO26模型对新图像或视频进行预测。在此模式下,模型从检查点文件加载,用户可以提供图像或视频以执行推理。模型识别并定位输入媒体中的对象,使其为实际应用做好准备。预测模式是将您训练好的模型应用于解决实际问题的门户。
导出
导出模式用于将YOLO26模型转换为适合在不同平台和设备上部署的格式。此模式将您的PyTorch模型转换为ONNX、TensorRT或CoreML等优化格式,从而实现在生产环境中的部署。导出对于将模型与各种软件应用程序或硬件设备集成至关重要,通常会显著提高性能。
追踪
track模式扩展了YOLO26的对象detect能力,以track视频帧或直播流中的对象。此模式对于需要持续对象识别的应用尤其有价值,例如监控系统或自动驾驶汽车。track模式实现了ByteTrack等复杂算法,以在帧之间保持对象身份,即使对象暂时从视野中消失。
基准测试
基准测试模式分析YOLO26各种导出格式的速度和准确性。此模式提供模型大小、准确性(detect任务的mAP50-95或分类的accuracy_top5)以及ONNX、OpenVINO和TensorRT等不同格式的推理时间的综合指标。基准测试有助于您根据在部署环境中对速度和准确性的具体要求选择最佳导出格式。
常见问题
如何使用Ultralytics YOLO26训练自定义对象detect模型?
使用Ultralytics YOLO26训练自定义对象detect模型涉及使用训练模式。您需要一个YOLO格式的数据集,其中包含图像和相应的标注文件。使用以下命令启动训练过程:
示例
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640
有关更详细的说明,请参阅Ultralytics 训练指南。
Ultralytics YOLO26 使用哪些指标来验证模型性能?
Ultralytics YOLO26在验证过程中使用各种指标来评估模型性能。这些包括:
- mAP (平均精度均值): 这评估了目标检测的准确性。
- IOU(交并比):衡量预测边界框与真实边界框之间的重叠程度。
- 精确率和召回率:精确率衡量的是真正例检测与所有检测到的正例的比率,而召回率衡量的是真正例检测与所有实际正例的比率。
你可以运行以下命令来启动验证:
示例
from ultralytics import YOLO
# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml
有关更多详细信息,请参阅验证指南。
如何导出我的 YOLO26 模型以进行部署?
Ultralytics YOLO26提供导出功能,可将您训练好的模型转换为ONNX、TensorRT、CoreML等多种部署格式。使用以下示例导出您的模型:
示例
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx
有关每种导出格式的详细步骤,请参见导出指南。
Ultralytics YOLO26 中基准测试模式的目的是什么?
Ultralytics YOLO26中的基准测试模式用于分析速度和 准确性 ONNX、TensorRT 和 OpenVINO 等各种导出格式的性能。它提供诸如模型大小之类的指标, mAP50-95 用于物体检测,以及在不同硬件设置中的推理时间,帮助你选择最适合你部署需求的格式。
示例
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0
有关更多详细信息,请参阅Benchmark 指南。
如何使用 Ultralytics YOLO26 执行实时目标 track?
实时对象track可以通过Ultralytics YOLO26中的track模式实现。此模式扩展了对象detect能力,以track视频帧或直播流中的对象。使用以下示例启用track:
示例
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4
有关深入的说明,请访问Track 指南。