クラウドトレーニング
Ultralytics Platformのクラウドトレーニングは、クラウドGPUでのワンクリックトレーニングを提供し、複雑なセットアップなしでモデルトレーニングを可能にします。リアルタイムのメトリクスストリーミングと自動チェックポイント保存機能により、YOLOモデルをトレーニングできます。
graph LR
A[Configure] --> B[Start Training]
B --> C[Provision GPU]
C --> D[Download Dataset]
D --> E[Train]
E --> F[Stream Metrics]
F --> G[Save Checkpoints]
G --> H[Complete]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style E fill:#9C27B0,color:#fff
style H fill:#4CAF50,color:#fff
トレーニング対話
プラットフォームのUIからトレーニングを開始するには、任意のプロジェクトページで「新規モデル」をクリックするか(またはデータセットページからトレーニングを開始)、トレーニングダイアログの2つのタブ「クラウドトレーニング」と「ローカルトレーニング」を使用します。

ステップ1: 基本モデルを選択
公式のYOLO26モデルまたはご自身で訓練したモデルから選択してください:
| カテゴリー | 説明 |
|---|---|
| 公式 | 全25のYOLO26モデル(5サイズ×5タスク) |
| あなたのモデル | 微調整用の完成モデル |
公式モデルはタスクタイプ(検出、セグメンテーション、姿勢推定、OBB、分類)別に整理され、サイズはnanoからxlargeまで用意されています。
ステップ2: データセットを選択する
トレーニングに使用するデータセットを選択してください(データセットを参照):
| オプション | 説明 |
|---|---|
| 公式 | Ultralyticsによる厳選データセット |
| あなたのデータセット | アップロード済みのデータセット |
データセット要件
データセットは次の形式でなければなりません ready トレーニング分割に少なくとも1枚の画像、検証またはテスト分割に1枚の画像、および少なくとも1枚のラベル付き画像を含むステータス。
タスクの不一致
モデルタスク(例:detect)とデータセットタスク(例:segment)が一致しない場合、タスク不一致警告が表示されます。不一致のタスクで続行するとトレーニングは失敗します。タスクガイドに記載されている通り、モデルとデータセットの両方で同じタスクタイプを使用していることを確認してください。
ステップ3: パラメータの設定
コアトレーニングパラメータを設定する:
| パラメータ | 説明 | デフォルト |
|---|---|---|
| エポック数 | トレーニングイテレーション数 | 100 |
| バッチサイズ | イテレーションあたりのサンプル数 | 16 |
| 画像サイズ | 入力解像度(320/416/512/640/1280 ドロップダウン、または YAML エディタでは 32-4096) | 640 |
| 実行名 | トレーニングランの任意の名称 | auto |
ステップ4: 詳細設定(任意)
詳細設定を展開すると、グループ別に整理された40以上のトレーニングパラメータを備えた完全なYAMLベースのパラメータエディタにアクセスできます(設定リファレンスを参照)。
| グループ | パラメータ |
|---|---|
| 学習率 | 学習率, 学習率, モーメンタム, 減衰率, ウォームアップエポック数, ウォームアップモーメンタム, ウォームアップバイアス学習率 |
| オプティマイザ | SGD, MuSGD,Adam,AdamW, NAdam, RAdam, RMSProp, Adamax |
| 損失重量 | ボックス, クラス, 深度, ポーズ, 物体, ラベル平滑化 |
| カラー増強 | HSV_H, HSV_S, HSV_V |
| 幾何学的拡張 | 角度、平行移動、拡大縮小、せん断、透視 |
| フリップ&ミックス拡張 | フリップド、フリップラー、モザイク、ミックスアップ、コピー&ペースト |
| 訓練管理 | 忍耐、種、決定論的、アンプ、cos_lr、close_mosaic、save_period |
| データセット | フラクション、フリーズ、シングルクラス、矩形、マルチスケール、再開 |
パラメータはタスクを意識している(例: copy_paste segment のみに表示されます。 pose/kobj ポーズタスク専用)。A 修正済み 値がデフォルトと異なる場合にバッジが表示され、リセットボタンですべてをデフォルトに戻せます。
例:小規模データセット向けチューニング拡張
For small datasets (<1000 images), increase augmentation to reduce overfitting:
mosaic: 1.0 # Keep mosaic on
mixup: 0.3 # Add mixup blending
copy_paste: 0.3 # Add copy-paste (segment only)
fliplr: 0.5 # Horizontal flip
degrees: 10.0 # Slight rotation
scale: 0.9 # Aggressive scaling
ステップ5:GPU クラウドタブ)
Ultralytics GPU してください:

| GPU | VRAM | 1時間あたりのコスト |
|---|---|---|
| RTX 2000 Ada | 16ギガバイト | $0.24 |
| RTX A4500 | 20ギガバイト | $0.24 |
| RTX A5000 | 24ギガバイト | $0.26 |
| RTX 4000 Ada | 20ギガバイト | $0.38 |
| L4 | 24ギガバイト | $0.39 |
| A40 | 48ギガバイト | $0.40 |
| RTX 3090 | 24ギガバイト | $0.46 |
| RTX A6000 | 48ギガバイト | $0.49 |
| RTX 4090 | 24ギガバイト | $0.59 |
| RTX 6000 Ada | 48ギガバイト | $0.77 |
| L40S | 48ギガバイト | $0.86 |
| RTX 5090 | 32ギガバイト | $0.89 |
| L40 | 48ギガバイト | $0.99 |
| A100 PCIe | 80ギガバイト | $1.39 |
| A100 SXM | 80ギガバイト | $1.49 |
| RTX PRO 6000 | 96ギガバイト | $1.89 |
| H100 PCIe | 80ギガバイト | $2.39 |
| H100 SXM | 80ギガバイト | $2.69 |
| H100 NVL | 94 GB | $3.07 |
| H200 NVL | 143ギガバイト | $3.39 |
| H200 SXM | 141ギガバイト | $3.59 |
| B200 | 180ギガバイト | $4.99 |
GPUの選択
- RTX PRO 6000: 96 GB ブラックウェル世代、ほとんどの作業における推奨デフォルト設定
- A100 SXM:大規模バッチ処理や大型モデルに必要
- H100/H200: 時間依存性のあるトレーニングにおける最高性能
- B200:NVIDIA アーキテクチャによる最先端ワークロード向けソリューション
ダイアログには現在の残高と「チャージ」ボタンが表示されます。見積もり費用と所要時間は、設定内容(モデルサイズ、データセット画像数、エポック数、GPU )に基づいて計算されます。
ステップ6: トレーニングを開始する
トレーニングを開始をクリックしてジョブを起動します。プラットフォームは以下の通りです:
- GPUインスタンスをプロビジョニングします
- データセットをダウンロードします
- トレーニングを開始します
- メトリクスをリアルタイムでストリーミングします
トレーニング業務ライフサイクル
トレーニングジョブは以下のステータスを経て進行します:
| ステータス | 説明 |
|---|---|
| 保留中 | ジョブを送信しました。GPU を待機中です。 |
| 開始 | GPU 。データセットとモデルのダウンロード中です。 |
| ランニング | トレーニング進行中、メトリクスがリアルタイムでストリーミング中 |
| 完了 | トレーニングは無事に終了しました |
| 失敗した | トレーニングに失敗しました(詳細はコンソールログを参照してください) |
| キャンセルされました | トレーニングはユーザーによってキャンセルされました |

トレーニングを監視する
モデルページの「トレーニング」タブで、トレーニングの進捗状況をリアルタイムで確認できます:
チャートサブタブ

| メトリック | 説明 |
|---|---|
| 損失 | 訓練および検証損失 |
| mAP | 平均適合率 |
| 適合率 | 正しく検出された陽性予測 |
| 再現率 | 検出された正解データ |
コンソールサブタブ
ANSIカラー対応、進行状況バー、エラー検出機能を備えたライブコンソール出力。
システムサブタブ
GPU 、メモリ、温度、CPU、ディスク使用量。
チェックポイント
チェックポイントは自動的に保存されます:
- 各エポック: 最新の重みが保存されます
- 最良モデル: 最高のmAPチェックポイントが保持されます
- 最終モデル: 訓練完了時の重み
トレーニングのキャンセル
モデルページで「トレーニングの中止」をクリックすると、実行中のジョブを停止できます:
- コンピューティングインスタンスが終了しました
- クレジットの課金が停止されます
- その時点までに保存されたチェックポイントは保持されます
リモートトレーニング
graph LR
A[Local GPU] --> B[Train]
B --> C[ultralytics Package]
C --> D[Stream Metrics]
D --> E[Platform Dashboard]
style A fill:#FF9800,color:#fff
style C fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
自社ハードウェア上でトレーニングを行いながら、メトリクスをプラットフォームにストリーミングします。
パッケージバージョンの要件
Platformのultralytics>=8.4.14が必要です。それより低いバージョンはPlatformでは動作しません。
pip install -U ultralytics
API キーのセットアップ
- 行く
Settings > Profile(APIキーセクション) - 新しいキーを作成する(または、ローカルトレーニングタブを開くとプラットフォームが自動的に作成します)
- 環境変数を設定します:
export ULTRALYTICS_API_KEY="your_api_key"
ストリーミングでのトレーニング
以下を使用します project および name メトリクスをストリーミングするためのパラメータ:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
トレーニングダイアログの「ローカルトレーニング」タブには、APIキー、選択されたパラメータ、および高度な引数が含まれた事前設定済みコマンドが表示されます。
プラットフォームデータセットの使用
プラットフォームに保存されたデータセットを使用してトレーニングする ul:// URI形式:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
The ul:// URI形式は自動的にデータセットをダウンロードし設定します。モデルはプラットフォーム上のデータセットに自動的にリンクされます(参照 プラットフォームデータセットの使用)。
請求
トレーニング費用はGPUの使用量に基づきます:
コスト見積もり
トレーニング開始前に、プラットフォームは以下の方法で総コストを推定します:
- データセットサイズ、モデルの複雑さ、画像サイズ、バッチサイズ、GPU からエポックあたりの秒数を推定する
- エポックごとの秒数にエポック数を乗じて総トレーニング時間を計算し、起動オーバーヘッドを加算する
- 総トレーニング時間とGPU時間単価を乗算して推定コストを算出する
コストに影響を与える要因:
| 因子 | 影響 |
|---|---|
| データセットサイズ | 画像数が多いほど学習時間が長くなる(基準値:RTX 4090で1000枚あたり約2.8秒の計算時間) |
| モデルサイズ | より大きなモデル(m, l, x)は(n, s)よりも学習速度が遅い |
| エポック数 | 訓練時間に対する直接的な乗数 |
| 画像サイズ | 画像サイズが大きいほど計算量が増加:320px=0.25倍、640px=1.0倍(基準値)、1280px=4.0倍 |
| バッチサイズ | より大きなバッチは効率的である(バッチ32 = 約0.85倍の時間、バッチ8 = 約1.2倍の時間、バッチ16を基準値として) |
| GPU | 高速なGPUはトレーニング時間を短縮する(例:H100 SXMはRTX 4090より約3.4倍高速) |
| スタートアップのオーバーヘッド | インスタンスの初期化、データのダウンロード、ウォームアップに最大5分(データセットのサイズに応じて変動) |
費用例
見積もり
コスト見積もりは概算であり、多くの要因に依存します。トレーニングダイアログでは、トレーニング開始前にリアルタイムの見積もりを表示します。
| シナリオ | GPU | 見積もり費用 |
|---|---|---|
| 500枚の画像、YOLO26n、50エポック | RTX 4090 | 約0.50ドル |
| 1000枚の画像、YOLO26n、100エポック | RTX PRO 6000 | 約5ドル |
| 5000枚の画像、YOLO26s、100エポック | H100 SXM | 約23ドル |
請求フロー
graph LR
A[Estimate Cost] --> B[Balance Check]
B --> C[Train]
C --> D[Charge Actual Runtime]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style C fill:#9C27B0,color:#fff
style D fill:#4CAF50,color:#fff
クラウドトレーニング課金フロー:
- 見積もり:トレーニング開始前に算出された費用
- 残高確認:起動前に利用可能なクレジットを確認します
- Train: ジョブは選択されたコンピューティング上で実行されます
- 料金:最終的な費用は実際の稼働時間に基づきます
消費者保護
請求は実際のコンピューティング使用量を追跡し、キャンセルされた部分的な実行も含みます。
支払い方法
| メソッド | 説明 |
|---|---|
| アカウント残高 | 事前チャージ済みクレジット |
| ジョブごとの支払い | ジョブ完了時に課金 |
最低残高
トレーニング開始には、利用可能な残高がプラスであり、見積もり作業費用に十分なクレジットが必要です。
トレーニングコストの表示
トレーニング後、詳細な費用は請求タブで確認できます:
- エポックごとの費用内訳
- 総GPU時間
- 費用レポートのダウンロード

トレーニングのヒント
適切なモデルサイズの選択
| モデル | パラメータ | 最適な用途 |
|---|---|---|
| YOLO26n | 2.4M | リアルタイム、エッジデバイス |
| YOLO26s | 9.5M | 速度と精度のバランス |
| YOLO26m | 20.4M | より高い精度 |
| YOLO26l | 24.8M | プロダクション精度 |
| YOLO26x | 55.7M | 最大精度 |
トレーニング時間の最適化
コスト削減戦略
- 小規模から始める:予算GPU 10~20エポックのテストを行いGPU データセットと設定が機能することを確認GPU
- 適切なGPUを使用する:RTX PRO 6000はほとんどのワークロードを良好に処理します
- データセットの検証:トレーニングに費用をかける前にラベリングの問題を修正する
- 早期に監視:損失が横ばいになったらトレーニングを中止 — 支払いは使用した計算時間分のみ
トラブルシューティング
| 問題 | ソリューション |
|---|---|
| トレーニングが0%で停止する | データセットの形式を確認し、再試行する |
| メモリ不足 | バッチサイズを減らすか、より大きなGPUを使用する |
| 精度が低い | エポック数を増やす、データ品質を確認する |
| トレーニングが遅い | より高速なGPUを検討する |
| タスク不一致エラー | モデルとデータセットのタスクが一致していることを確認する |
よくある質問
トレーニングにはどのくらいの時間がかかりますか?
トレーニング時間は以下によって異なります:
- データセットサイズ
- モデルサイズ
- エポック数
- 選択されたGPU
一般的な時間 (画像1000枚、100エポック):
| モデル | RTX PRO 6000 | A100 |
|---|---|---|
| YOLO26n | 20分 | 20分 |
| YOLO26m | 40分 | 40分 |
| YOLO26x | 80分 | 80分 |
一晩中トレーニングできますか?
はい、トレーニングは完了するまで続行されます。トレーニングが終了すると通知が届きます。エポックベースのトレーニングに十分な残高がアカウントにあることを確認してください。
クレジットがなくなったらどうなりますか?
トレーニングは現在のエポックの終わりに一時停止します。チェックポイントは保存され、クレジットを追加した後で再開できます。
カスタムトレーニング引数を使用できますか?
はい、トレーニングダイアログの「詳細設定」セクションを展開すると、40以上の設定可能なパラメータを備えたYAMLエディタにアクセスできます。デフォルト以外の値は、クラウドおよびローカルのトレーニングコマンドの両方に含まれます。
データセットページからトレーニングできますか?
はい、データセットページの「Train」ボタンをクリックすると、データセットが事前選択されロックされた状態でトレーニングダイアログが開きます。その後、プロジェクトとモデルを選択してトレーニングを開始します。
トレーニングパラメーターリファレンス
| パラメータ | 種類 | デフォルト | 範囲 | 説明 |
|---|---|---|---|---|
epochs | int | 100 | 1-10000 | トレーニングエポック数 |
batch | int | 16 | 1-512 | バッチサイズ |
imgsz | int | 640 | 32-4096 | 入力画像サイズ |
patience | int | 100 | 1-1000 | 早期停止の許容回数 |
seed | int | 0 | 0-2147483647 | 再現性のための乱数シード |
deterministic | bool | 真実 | - | 決定論的トレーニングモード |
amp | bool | 真実 | - | 自動混合精度 |
close_mosaic | int | 10 | 0-50 | 最終Nエポックでモザイクを無効化 |
save_period | int | -1 | -1-100 | Nエポックごとにチェックポイントを保存する |
workers | int | 8 | 0-64 | データローダーワーカー数 |
cache | 選択 | 偽 | RAMディスク/偽 | キャッシュ画像 |
| パラメータ | 種類 | デフォルト | 範囲 | 説明 |
|---|---|---|---|---|
lr0 | float | 0.01 | 0.0001-0.1 | 初期学習率 |
lrf | float | 0.01 | 0.01~1.0 | 最終学習率係数 |
momentum | float | 0.937 | 0.6-0.98 | SGD momentum |
weight_decay | float | 0.0005 | 0.0-0.001 | L2正則化 |
warmup_epochs | float | 3.0 | 0-5 | ウォームアップエポック |
warmup_momentum | float | 0.8 | 0.5-0.95 | ウォームアップの勢い |
warmup_bias_lr | float | 0.1 | 0.0-0.2 | ウォームアップバイアス LR |
cos_lr | bool | False | - | コサイン学習率スケジューラー |
| パラメータ | 種類 | デフォルト | 範囲 | 説明 |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0.0-0.1 | HSV色相拡張 |
hsv_s | float | 0.7 | 0.0-1.0 | HSV彩度 |
hsv_v | float | 0.4 | 0.0-1.0 | HSV明度 |
degrees | float | 0.0 | -45-45 | 回転角度 |
translate | float | 0.1 | 0.0-1.0 | 平行移動比率 |
scale | float | 0.5 | 0.0-1.0 | スケール係数 |
shear | float | 0.0 | -10-10 | せん断度 |
perspective | float | 0.0 | 0.0-0.001 | 視点変換 |
fliplr | float | 0.5 | 0.0-1.0 | 水平反転確率 |
flipud | float | 0.0 | 0.0-1.0 | 垂直反転確率 |
mosaic | float | 1.0 | 0.0-1.0 | モザイク拡張 |
mixup | float | 0.0 | 0.0-1.0 | MixUp拡張 |
copy_paste | float | 0.0 | 0.0-1.0 | コピー&ペースト (segment) |
| パラメータ | 種類 | デフォルト | 範囲 | 説明 |
|---|---|---|---|---|
fraction | float | 1.0 | 0.1~1.0 | 使用するデータセットの割合 |
freeze | int | null | 0-100 | 凍結する層の数 |
single_cls | bool | False | - | すべてのクラスを一つのクラスとして扱う |
rect | bool | False | - | 長方形のトレーニング |
multi_scale | float | 0.0 | 0.0-1.0 | 多段階訓練場 |
val | bool | 真実 | - | トレーニング中に検証を実行する |
resume | bool | False | - | チェックポイントからトレーニングを再開する |
| 値 | 説明 |
|---|---|
auto | 自動選択 (デフォルト) |
SGD | 確率的勾配降下法 |
MuSGD | ミューオンSGD |
Adam | Adam オプティマイザ |
AdamW | 重み減衰付きAdam |
NAdam | NAdamオプティマイザ |
RAdam | RAdamオプティマイザ |
RMSProp | RMSProp最適化アルゴリズム |
Adamax | アダマックス最適化器 |
| パラメータ | 種類 | デフォルト | 範囲 | 説明 |
|---|---|---|---|---|
box | float | 7.5 | 1-50 | ボックス損失の重み |
cls | float | 0.5 | 0.2-4 | 分類損失重量 |
dfl | float | 1.5 | 0.4-6 | 分布焦点損失 |
pose | float | 12.0 | 1-50 | ポーズによる減量(ポーズのみ) |
kobj | float | 1.0 | 0.5-10 | キーポイントの物体性(姿勢) |
label_smoothing | float | 0.0 | 0.0-0.1 | ラベル平滑化係数 |
タスク固有のパラメータ
一部のパラメータは特定のタスクにのみ適用されます:
- 検出タスクのみ (detect、segment、姿勢推定、OBB —classifyではない):
box,dfl,degrees,translate,shear,perspective,mosaic,mixup,close_mosaic - セグメントのみ:
copy_paste - ポーズのみ:
pose(損失重み),kobj(キーポイントの物体性)