云端训练
Ultralytics Platform 云训练提供云端GPU上的一键式训练,使模型训练无需复杂设置即可进行。训练YOLO模型时,可享受实时指标流和自动检查点保存功能。
从 UI 训练
直接从平台启动云训练:
- 导航到您的项目
- 点击 训练模型
- 配置训练参数
- 点击开始训练
步骤 1:选择数据集
从您的上传中选择数据集:
| 选项 | 描述 |
|---|---|
| 您的数据集 | 您已上传的数据集 |
| 公共数据集 | 来自Explore的公共数据集 |
步骤 2:配置模型
选择基础模型和参数:
| 参数 | 描述 | 默认值 |
|---|---|---|
| 模型 | 基础架构(YOLO26n、s、m、l、x) | YOLO26n |
| 训练轮次 | 训练迭代次数 | 100 |
| 图像大小 | 输入分辨率 | 640 |
| 批量大小 | 每次迭代的样本数 | 自动 |
步骤 3:选择 GPU
选择您的计算资源:
| 层级 | GPU | 显存 | 每小时价格 | 最适合 |
|---|---|---|---|---|
| 预算 | RTX A2000 | 6 GB | $0.12 | 小数据集,测试 |
| 预算 | RTX 3080 | 10 GB | $0.25 | 中等规模的数据集 |
| 预算 | RTX 3080 Ti | 12 GB | $0.30 | 中等规模的数据集 |
| 预算 | A30 | 24 GB | $0.44 | 更大的批量 |
| 中 | RTX 4090 | 24 GB | $0.60 | 极佳性价比 |
| 中 | A6000 | 48 GB | $0.90 | 大型模型 |
| 中 | L4 | 24 GB | $0.54 | 推理优化 |
| 中 | L40S | 48 GB | $1.72 | 大规模批量训练 |
| Pro | A100 40GB | 40 GB | $2.78 | 生产培训 |
| Pro | A100 80GB | 80 GB | $3.44 | 超大型模型 |
| Pro | H100 | 80 GB | $5.38 | 最快的训练 |
| 企业版 | H200 | 141 GB | $5.38 | 最高性能 |
| 企业版 | B200 | 192 GB | $10.38 | 最大模型 |
| Ultralytics | RTX PRO 6000 | 48 GB | $3.68 | Ultralytics |
GPU 选择
- RTX 4090:以每小时0.60美元的价格,在多数任务中提供最佳性价比
- A100 80GB:大型批处理或大型模型所需
- H100/H200:为时间敏感型训练提供最高性能
- B200:NVIDIA Blackwell架构,专为尖端工作负载打造
步骤 4:开始训练
点击 开始训练 以启动您的任务。平台将:
- 调配一个 GPU 实例
- 下载您的数据集
- 开始训练
- 实时传输指标
监控训练
查看实时训练进度:
实时指标
| 指标 | 描述 |
|---|---|
| 损失 | 训练和验证损失 |
| mAP | 平均精度均值 |
| 精确度 | 正确正向预测 |
| 召回率 | 检测到的真实值 |
| GPU Util | GPU 利用率百分比 |
| 内存 | GPU 内存使用量 |
检查点
检查点自动保存:
- 每个 epoch:保存最新权重
- 最佳模型:保留 mAP 最高的检查点
- 最终模型:训练完成时的权重
停止与恢复
停止训练
点击 停止训练 以暂停您的任务:
- 当前检查点已保存
- GPU 实例被释放
- 积分停止计费
恢复训练
从您上次的检查点继续:
- 导航到模型
- 点击恢复训练
- 确认继续
恢复训练限制
您只能恢复明确停止的训练。失败的训练任务可能需要从头开始。
远程训练
在您自己的硬件上进行训练,同时将指标流式传输到平台。
软件包版本要求
平台集成需要ultralytics>=8.4.0。较低版本将无法与平台配合使用。
pip install "ultralytics>=8.4.0"
设置API密钥
- 前往设置 > API 密钥
- 创建具有训练范围的新密钥
- 设置环境变量:
export ULTRALYTICS_API_KEY="your_api_key"
使用流式传输进行训练
使用 project 和 name 用于流式传输指标的参数:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
使用平台数据集
使用存储在平台上的数据集进行训练:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100
字段 ul:// URI 格式会自动下载并配置您的数据集。
账单
训练成本基于 GPU 使用情况:
成本估算
在培训开始前,平台根据以下因素估算总成本:
Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate
影响成本的因素:
| 因子 | 影响 |
|---|---|
| 数据集大小 | 更多图像 = 更长的训练时间 |
| 模型大小 | 较大型号(m、l、x)的训练速度慢于(n、s)型号。 |
| epoch数 | 训练时间的直接乘数 |
| 图像大小 | 更大的imgsz会增加计算量 |
| GPU | 更快的GPU可缩短训练时间 |
费用示例
| 场景 | GPU | 时间 | 成本 |
|---|---|---|---|
| 1000张图像,YOLO26n模型,100个 epoch | RTX 4090 | 约1小时 | ~0.60美元 |
| 5000张图像,YOLO26m模型,100个 epoch | A100 80GB | 约4小时 | ~13.76美元 |
| 10000张图像,YOLO26x模型,200个 epoch | H100 | 约8小时 | ~43.04美元 |
持仓/结算系统
该平台采用消费者保护计费模式:
- 估算:培训开始前计算的成本
- 保留:预估金额 + 20% 安全边际(从余额中预留)
- 火车:预留金额显示为余额中的"预留"
- 结算:完成后,仅按实际使用的GPU 计费
- 退款:任何超额款项将自动退还至您的账户余额
消费者保护
您绝不会收取超过估算值的费用,该估算值在训练前显示。如果训练提前完成或被取消,您只需支付实际使用的计算时间。
支付方式
| 方法 | 描述 |
|---|---|
| 账户余额 | 预加载积分 |
| 按任务付费 | 任务完成后收费 |
最低余额
启动基于周期的训练需要至少5.00美元的余额。
查看训练成本
训练完成后,在账单选项卡中查看详细费用:
- 每周期费用明细
- 总计 GPU 时间
- 下载费用报告
训练技巧
选择合适的模型大小
| 模型 | 参数 | 最适合 |
|---|---|---|
| YOLO26n | 2.4M | 实时、边缘设备 |
| YOLO26s | 9.5M | 平衡的速度/精度 |
| YOLO26m | 20.4M | 更高精度 |
| YOLO26l | 24.8M | 生产级精度 |
| YOLO26x | 55.7M | 最大精度 |
优化训练时间
- 从小处着手:首先使用较少的周期进行测试
- 使用合适的 GPU:根据模型/批次大小匹配 GPU
- 验证数据集:确保在训练前数据质量
- 及早监控:如果指标趋于平稳则停止
故障排除
| 问题 | 解决方案 |
|---|---|
| 训练停滞在0% | 检查数据集格式,重试 |
| 内存不足 | 减小批次大小或使用更大的 GPU |
| 精度不佳 | 增加周期数,检查数据质量 |
| 训练缓慢 | 考虑更快的 GPU |
常见问题
训练需要多长时间?
训练时间取决于:
- 数据集大小
- 模型大小
- 训练轮次
- 所选 GPU
典型时间(1000张图像,100个epoch):
| 模型 | RTX 4090 | A100 |
|---|---|---|
| YOLO26n | 30分钟 | 20分钟 |
| YOLO26m | 60分钟 | 40分钟 |
| YOLO26x | 120分钟 | 80分钟 |
我可以通宵训练吗?
是的,训练将持续到完成。训练完成后您将收到通知。请确保您的账户有足够的余额进行基于 epoch 的训练。
如果我的积分用完了怎么办?
训练将在当前 epoch 结束时暂停。您的检查点已保存,充值后即可恢复。
我可以使用自定义训练参数吗?
是的,高级用户可以在训练配置中指定额外的参数。
训练参数参考
核心参数
| 参数 | 类型 | 默认值 | 范围 | 描述 |
|---|---|---|---|---|
epochs | 整型 | 100 | 1+ | 训练轮次(epoch)数量 |
batch | 整型 | 16 | -1 = 自动 | 批大小(-1为自动) |
imgsz | 整型 | 640 | 32+ | 输入图像尺寸 |
patience | 整型 | 100 | 0+ | 提前停止耐心值 |
workers | 整型 | 8 | 0+ | 数据加载器工作进程数 |
cache | 布尔值 | 否 | - | 缓存图像(内存/磁盘) |
学习率参数
| 参数 | 类型 | 默认值 | 范围 | 描述 |
|---|---|---|---|---|
lr0 | 浮点数 | 0.01 | 0.0-1.0 | 初始学习率 |
lrf | 浮点数 | 0.01 | 0.0-1.0 | 最终学习率因子 |
momentum | 浮点数 | 0.937 | 0.0-1.0 | SGD 动量 |
weight_decay | 浮点数 | 0.0005 | 0.0-1.0 | L2 正则化 |
warmup_epochs | 浮点数 | 3.0 | 0+ | 预热 epochs |
cos_lr | 布尔值 | 否 | - | 余弦学习率调度器 |
数据增强参数
| 参数 | 类型 | 默认值 | 范围 | 描述 |
|---|---|---|---|---|
hsv_h | 浮点数 | 0.015 | 0.0-1.0 | HSV 色相增强 |
hsv_s | 浮点数 | 0.7 | 0.0-1.0 | HSV 饱和度 |
hsv_v | 浮点数 | 0.4 | 0.0-1.0 | HSV 明度 |
degrees | 浮点数 | 0.0 | - | 旋转角度 |
translate | 浮点数 | 0.1 | 0.0-1.0 | 平移分数 |
scale | 浮点数 | 0.5 | 0.0-1.0 | 缩放因子 |
fliplr | 浮点数 | 0.5 | 0.0-1.0 | 水平翻转概率 |
flipud | 浮点数 | 0.0 | 0.0-1.0 | 垂直翻转概率 |
mosaic | 浮点数 | 1.0 | 0.0-1.0 | Mosaic 数据增强 |
mixup | 浮点数 | 0.0 | 0.0-1.0 | MixUp 数据增强 |
copy_paste | 浮点数 | 0.0 | 0.0-1.0 | 复制粘贴 (segment) |
优化器选择
| 值 | 描述 |
|---|---|
auto | 自动选择 (默认) |
SGD | 随机梯度下降 |
Adam | Adam 优化器 |
AdamW | 带权重衰减的 Adam |
任务特定参数
某些参数仅适用于特定任务:
- 分割:
overlap_mask,mask_ratio,copy_paste - 姿势估计:
pose(损失权重),kobj(关键点目标性) - 分类:
dropout,erasing,auto_augment
📅 创建于 20 天前 ✏️ 更新于 14 天前