コンテンツにスキップ

クラウドトレーニング

Ultralytics Platformのクラウドトレーニングは、クラウドGPUでのワンクリックトレーニングを提供し、複雑なセットアップなしでモデルトレーニングを可能にします。リアルタイムのメトリクスストリーミングと自動チェックポイント保存機能により、YOLOモデルをトレーニングできます。

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

トレーニング対話

プラットフォームのUIからトレーニングを開始するには、任意のプロジェクトページで「新規モデル」をクリックするか(またはデータセットページからトレーニングを開始)、トレーニングダイアログの2つのタブ「クラウドトレーニング」と「ローカルトレーニング」を使用します。

Ultralytics トレーニングダイアログクラウドタブ

ステップ1: 基本モデルを選択

公式のYOLO26モデル、またはご自身で学習させたモデルから選択してください。

カテゴリー説明
公式すべての25個のYOLO26モデル (5サイズ x 5タスク)
あなたのモデル微調整用の完成モデル

公式モデルはタスクタイプ(検出セグメンテーション姿勢推定OBB分類)別に整理され、サイズはnanoからxlargeまで用意されています。

ステップ2: データセットを選択する

トレーニングに使用するデータセットを選択してください(データセットを参照):

オプション説明
公式Ultralytics製の厳選されたデータセット
あなたのデータセットアップロード済みのデータセット

データセット要件

データセットは次の形式である必要があります ready トレーニング分割に少なくとも1枚の画像、検証またはテスト分割に1枚の画像、および少なくとも1枚のラベル付き画像を含むステータス。

タスクの不一致

モデルタスク(例: detect)がデータセットタスク(例: segment)と一致しない場合、タスク不一致の警告が表示されます。不一致のタスクで続行すると、トレーニングは失敗します。タスクガイドに記載されているように、モデルとデータセットの両方が同じタスクタイプを使用していることを確認してください。

ステップ3: パラメータの設定

コアトレーニングパラメータを設定する:

パラメータ説明デフォルト
エポック数トレーニングイテレーション数100
バッチサイズイテレーションあたりのサンプル数16
画像サイズ入力解像度(320/416/512/640/1280 ドロップダウン、または YAML エディタでは 32-4096)640
実行名トレーニングランの任意の名称自動

ステップ4: 詳細設定(任意)

詳細設定を展開すると、40以上のトレーニングパラメータがグループ別に整理された完全なyamlベースのパラメータエディタにアクセスできます(設定リファレンスを参照)。

グループパラメータ
学習率学習率, 学習率, モーメンタム, 減衰率, ウォームアップエポック数, ウォームアップモーメンタム, ウォームアップバイアス学習率
オプティマイザSGD, MuSGD,Adam,AdamW, NAdam, RAdam, RMSProp, Adamax
損失重量box, cls, dfl, pose, kobj, label_smoothing
色彩拡張HSV_H, HSV_S, HSV_V
幾何学的拡張角度、移動、スケール、シアー、パースペクティブ
フリップ&ミックス拡張flipud、fliplr、mosaic、MixUp、copy_paste
訓練管理忍耐、種、決定論的、アンプ、cos_lr、close_mosaic、save_period
データセットフラクション、フリーズ、シングルクラス、矩形、マルチスケール、再開

パラメータはタスクを意識している(例: copy_paste segment のみに表示されます。 pose/kobj ポーズタスク専用)。A 修正済み 値がデフォルトと異なる場合にバッジが表示され、リセットボタンですべてをデフォルトにリセットできます。

例: 小規模データセットのためのデータ拡張の調整

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

ステップ5:GPU クラウドタブ)

Ultralytics CloudからGPUを選択してください。

Ultralytics トレーニングダイアログGpu とコスト

GPU世代VRAM1時間あたりのコスト最適な用途
RTX 2000 AdaAda16 GB$0.24小規模データセット、テスト
RTX A4500Ampere20 GB$0.25小規模~中規模データセット
RTX 4000 AdaAda20 GB$0.26中規模データセット
RTX A5000Ampere24 GB$0.27中規模データセット
L4Ada24 GB$0.39推論に最適化
A40Ampere48 GB$0.40より大きなバッチサイズ
RTX 3090Ampere24 GB$0.46一般的なトレーニング
RTX A6000Ampere48 GB$0.49大規模モデル
RTX PRO 4500Blackwell32 GB$0.54優れた価格性能比
RTX 4090Ada24 GB$0.59最高のコストパフォーマンス
RTX 6000 AdaAda48 GB$0.77大規模バッチ学習
L40SAda48 GB$0.86大規模バッチ学習
RTX 5090Blackwell32 GB$0.89最新のコンシューマー世代
L40Ada48 GB$0.99大規模モデル
A100 PCIeAmpere80 GB$1.39本番環境での学習
A100 SXMAmpere80 GB$1.49本番環境での学習
RTX PRO 6000Blackwell96 GB$1.69推奨されるデフォルト
H100 PCIeHopper80 GB$2.39高性能トレーニング
H100 SXMHopper80 GB$2.69最速の学習
H100 NVLHopper94 GB$3.07最大限のパフォーマンス
H200 NVLHopper143 GB$3.39最大メモリ (Pro+)
H200 SXMHopper141 GB$3.59最大パフォーマンス (Pro+)
B200Blackwell180 GB$4.99最大規模のモデル (Pro+)

GPUの選択

  • RTX PRO 6000: 96 GB Blackwell世代、ほとんどのジョブで推奨されるデフォルト
  • A100 SXM: 大規模なバッチサイズや大規模なモデルに必要です。
  • H100/H200: 時間に制約のあるトレーニング向けに最大限のパフォーマンスを発揮します (H200にはProまたはEnterpriseが必要です)
  • B200: 最先端のワークロード向けNVIDIA Blackwellアーキテクチャ(ProまたはEnterpriseが必要)

ダイアログには現在の残高とチャージ」ボタンが表示されます。見積もり費用と所要時間は、設定内容(モデルサイズ、データセット画像数、エポック数、GPU )に基づいて計算されます。

ステップ6: トレーニングを開始する

トレーニングを開始をクリックしてジョブを起動します。プラットフォームは以下の通りです:

  1. GPUインスタンスをプロビジョニングします
  2. データセットをダウンロードします
  3. トレーニングを開始します
  4. メトリクスをリアルタイムでストリーミングします

トレーニング業務ライフサイクル

トレーニングジョブは以下のステータスを経て進行します:

ステータス説明
保留中ジョブを送信しました。GPU を待機中です。
開始GPU 。データセットとモデルのダウンロード中です。
ランニングトレーニング進行中、メトリクスがリアルタイムでストリーミング中
完了トレーニングは無事に終了しました
失敗トレーニングに失敗しました(詳細はコンソールログを参照してください)
キャンセル済みトレーニングはユーザーによってキャンセルされました

無料クレジット

新規アカウントには登録特典が付与されます — 個人用メールは5ドル、企業用メールは25ドルです。残高は「設定」>「請求」で確認できます

Ultralytics トレーニング進捗状況(グラフ付き)

トレーニングを監視する

モデルページの「トレーニング」タブで、トレーニングの進捗状況をリアルタイムで確認できます:

チャートサブタブ

Ultralytics

メトリック説明
損失訓練および検証損失
mAP平均適合率
適合率正しく検出された陽性予測
再現率検出された正解データ

コンソールサブタブ

ANSIカラー対応、進行状況バー、エラー検出機能を備えたライブコンソール出力。

システムサブタブ

GPU 、メモリ、温度、CPU、ディスク使用量。

チェックポイント

チェックポイントは自動的に保存されます:

  • 各エポック: 最新の重みが保存されます
  • 最良モデル: 最高のmAPチェックポイントが保持されます
  • 最終モデル: 訓練完了時の重み

トレーニングのキャンセル

モデルページでトレーニングをキャンセルをクリックすると、実行中のジョブが停止します。

  • コンピューティングインスタンスが終了しました
  • クレジットの課金が停止されます
  • その時点までに保存されたチェックポイントは保持されます

リモートトレーニング

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

自社ハードウェア上でトレーニングを行いながら、メトリクスをプラットフォームにストリーミングします。

パッケージバージョンの要件

プラットフォーム連携にはultralytics>=8.4.14が必要です。これより古いバージョンはプラットフォームでは動作しません。

pip install -U ultralytics

API キーのセットアップ

  1. 行く Settings > Profile (APIキーセクション)
  2. 新しいキーを作成します(または、ローカルトレーニングタブを開くとプラットフォームが自動的に作成します)。
  3. 環境変数を設定します:
export ULTRALYTICS_API_KEY="YOUR_API_KEY"

ストリーミングでのトレーニング

以下を使用します project および name メトリクスをストリーミングするためのパラメータ:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

トレーニングダイアログの「ローカルトレーニング」タブには、APIキー、選択されたパラメータ、および高度な引数が含まれた事前設定済みコマンドが表示されます。

プラットフォームデータセットの使用

プラットフォームに保存されたデータセットを使用してトレーニングする ul:// URI形式:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

The ul:// URI形式は自動的にデータセットをダウンロードし設定します。モデルはプラットフォーム上のデータセットに自動的にリンクされます(参照 プラットフォームデータセットの使用)。

請求

トレーニング費用はGPUの使用量に基づきます:

コスト見積もり

トレーニング開始前に、プラットフォームは総コストを次のように見積もります。

  1. エポックあたりの秒数を見積もる: データセットサイズ、モデルの複雑さ、画像サイズ、バッチサイズ、GPU速度から
  2. 総トレーニング時間の計算(1エポックあたりの秒数にエポック数を乗算し、起動オーバーヘッドを追加)
  3. 推定コストの計算(総トレーニング時間にGPUの時間単価を乗じて)

コストに影響を与える要因:

因子影響
データセットサイズ画像数が多いほど学習時間が長くなる(基準値:RTX 4090で1000枚あたり約2.8秒の計算時間)
モデルサイズより大きなモデル(m, l, x)は(n, s)よりも学習速度が遅い
エポック数訓練時間に対する直接的な乗数
画像サイズ画像サイズが大きいほど計算量が増加:320px=0.25倍、640px=1.0倍(基準値)、1280px=4.0倍
バッチサイズより大きなバッチは効率的である(バッチ32 = 約0.85倍の時間、バッチ8 = 約1.2倍の時間、バッチ16を基準値として)
GPUより高速なGPUはトレーニング時間を短縮します(例:H100 SXMはRTX 4090より約3.4倍高速)。
スタートアップのオーバーヘッドインスタンスの初期化、データのダウンロード、ウォームアップに最大5分(データセットのサイズに応じて変動)

費用例

推定

コスト見積もりは概算であり、多くの要因に依存します。学習ダイアログには、学習を開始する前のリアルタイムの見積もりが表示されます。

シナリオGPU推定費用
500画像、YOLO26n、50エポックRTX 4090約0.50ドル
1000枚の画像、YOLO26n、100エポックRTX PRO 6000約5ドル
5000枚の画像、YOLO26s、100エポックH100 SXM約23ドル

請求フロー

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

クラウドトレーニングの請求フロー:

  1. 見積もり:トレーニング開始前に算出された費用
  2. 残高チェック: 起動前に利用可能なクレジットが確認されます。
  3. 学習: ジョブは選択されたコンピューティングで実行されます
  4. 料金: 最終費用は実際の実行時間に基づきます。

消費者保護

請求は、キャンセルされた部分的な実行を含む実際の計算使用量を追跡します。失敗したトレーニング実行に対して課金されることはありません。

ジョブステータスによる請求

ステータス課金されましたか?
完了はい — 実際に使用されたGPU
キャンセル済みはい — 開始からキャンセルまでのGPU
失敗いいえ、失敗した実行には料金はかかりません
行き詰まる一部請求 — 実際のトレーニング時間のみを請求

誤りによる追加料金は発生しません

トレーニングの実行が、設定エラー、メモリ不足、その他の問題により失敗した場合、料金は発生しません。課金対象となるのは、正常に完了した実行時間のみです。スタックしたジョブ(4時間以上活動がないもの)は自動的に終了され、GPU 実際にトレーニングGPU 時間のみが課金対象となり、アイドル時間は課金されません。

支払い方法

メソッド説明
アカウント残高事前チャージ済みクレジット
ジョブごとの支払いジョブ完了時に課金

最低残高

トレーニング開始には、利用可能な残高がプラスであり、見積もり作業費用に十分なクレジットが必要です。

トレーニングコストの表示

トレーニング後、詳細な費用は請求タブで確認できます:

  • エポックごとの費用内訳
  • 総GPU時間
  • 費用レポートのダウンロード

Ultralytics トレーニング請求明細

トレーニングのヒント

適切なモデルサイズの選択

モデルパラメータ最適な用途
YOLO26n2.4Mリアルタイム、エッジデバイス
YOLO26s9.5M速度と精度のバランス
YOLO26m20.4Mより高い精度
YOLO26l24.8Mプロダクション精度
YOLO26x55.7M最大精度

トレーニング時間の最適化

コスト削減戦略

  1. 小規模から開始: 低予算のGPUで10〜20エポックでテストし、データセットと設定が機能することを確認します。
  2. 適切なGPUを使用する: RTX PRO 6000はほとんどのワークロードを適切に処理します
  3. データセットを検証する: トレーニングに費用をかける前にラベリングの問題を修正してください
  4. 早期監視: 損失がプラトーに達したらトレーニングをキャンセルします — 使用した計算時間に対してのみ支払います。

トラブルシューティング

問題ソリューション
トレーニングが0%で停止するデータセットの形式を確認し、再試行する
メモリ不足バッチサイズを減らすか、より大きなGPUを使用する
精度が低いエポック数を増やす、データ品質を確認する
トレーニングが遅いより高速なGPUを検討する
タスク不一致エラーモデルとデータセットのタスクが一致していることを確認してください

よくある質問

トレーニングにはどのくらいの時間がかかりますか?

トレーニング時間は以下によって異なります:

  • データセットサイズ
  • モデルサイズ
  • エポック数
  • 選択されたGPU

一般的な時間 (画像1000枚、100エポック):

モデルRTX PRO 6000A100 SXM
YOLO26n約20分約15分
YOLO26m約40分約30分
YOLO26x約80分約60分

おおよその時間

トレーニング時間は目安であり、データセットの複雑さ、データ拡張の設定、バッチサイズによって異なります。より正確な予測については、トレーニングダイアログのコスト見積もりを参照してください。

一晩中トレーニングできますか?

はい、トレーニングは完了するまで続行されます。トレーニングが終了すると通知が届きます。エポックベースのトレーニングに十分な残高がアカウントにあることを確認してください。

クレジットがなくなったらどうなりますか?

トレーニング実行中にクレジット残高がゼロになった場合でも、トレーニングは最後まで継続され、残高はマイナスになります。これにより、トレーニングジョブが実行途中で中断されることがなくなります。

トレーニングが完了した後、新しいトレーニングジョブを開始する前に、残高をプラスに戻すためにクレジットを追加する必要があります。完了したモデル、チェックポイント、およびすべてのトレーニング成果物は、残高に関係なく完全に保持されます。

マイナス残高

残高がマイナスの場合、新規トレーニングジョブの開始のみが制限されます。既存のデプロイメントやその他のプラットフォーム機能は通常通り動作し続けます。中断を避けるには、設定 > 請求からクレジットを追加するか、自動チャージを有効にしてください。

見積もり額より研修費用が高くなった場合はどうなりますか?

コスト見積もりは概算であり、データ読み込み速度、GPUウォームアップ、モデルの収束挙動などの要因により、実際の学習時間は異なる場合があります。実際のコストが見積もりを超えた場合、残高がマイナスになる可能性があります(上記参照)。プラットフォームは見積もりに基づいて学習を停止しません

コスト管理のため:

  • トレーニングの進捗状況をリアルタイムで把握し、必要に応じて早期に中止する
  • クレジットを自動的に補充するために自動チャージを有効にする
  • まずは短い実行(エポック数を少なく)から始めて、期待値を調整してください

カスタムトレーニング引数を使用できますか?

はい、トレーニングダイアログの「詳細設定」セクションを展開すると、40以上の設定可能なパラメータを備えたYAMLエディタにアクセスできます。デフォルト以外の値は、クラウドおよびローカルのトレーニングコマンドの両方に含まれます。

このYAMLエディタでは、過去のトレーニング実行から設定をインポートすることも可能です:

  • 既存モデルからコピー: 完了したモデルのページには、トレーニング設定カードにJSONとしてコピーボタンがあります。JSONをコピーしてYAMLエディタに直接貼り付けると、JSON形式が自動検出され、すべてのパラメータがインポートされます。
  • yamlまたはJSONを貼り付け: 有効なyamlまたはJSONトレーニング設定をエディタに貼り付けます。パラメータは自動的に検証され、範囲外の値はクランプされ、警告が表示されます。
  • ファイルをドラッグ&ドロップ: ドラッグ .yaml または .json パラメーターをインポートするには、ファイルをエディターに直接ドラッグします。

Ultralytics トレーニングダイアログのトレーニング設定 JSON

これにより、各パラメータを手動で再入力することなく、以前のトレーニング設定を簡単に再現したり、改良を加えたりすることができます。

データセットページからトレーニングできますか?

はい、データセットページの「Train」ボタンをクリックすると、データセットが事前選択されロックされた状態でトレーニングダイアログが開きます。その後、プロジェクトとモデルを選択してトレーニングを開始します。

トレーニングパラメーターリファレンス

パラメータ種類デフォルト範囲説明
epochsint1001-10000トレーニングエポック数
batchint161-512バッチサイズ
imgszint64032-4096入力画像サイズ
patienceint1001-1000早期停止の許容回数
seedint00-2147483647再現性のための乱数シード
deterministicbool真実-決定論的トレーニングモード
ampbool真実-自動混合精度
close_mosaicint100-50最終Nエポックでモザイクを無効にする
save_periodint-1-1-100Nエポックごとにチェックポイントを保存する
workersint80-64データローダーワーカー数
cache選択falseRAMディスク/偽画像をキャッシュ
パラメータ種類デフォルト範囲説明
lr0float0.010.0001-0.1初期学習率
lrffloat0.010.01-1.0最終学習率係数
momentumfloat0.9370.6-0.98SGD momentum
weight_decayfloat0.00050.0-0.001L2正則化
warmup_epochsfloat3.00-5ウォームアップエポック
warmup_momentumfloat0.80.5-0.95ウォームアップの勢い
warmup_bias_lrfloat0.10.0-0.2ウォームアップバイアス LR
cos_lrboolFalse-コサイン学習率スケジューラー
パラメータ種類デフォルト範囲説明
hsv_hfloat0.0150.0-0.1HSV色相拡張
hsv_sfloat0.70.0-1.0HSV彩度
hsv_vfloat0.40.0-1.0HSV明度
degreesfloat0.0-45-45回転角度
translatefloat0.10.0-1.0平行移動比率
scalefloat0.50.0-1.0スケール係数
shearfloat0.0-10-10せん断度
perspectivefloat0.00.0-0.001視点変換
fliplrfloat0.50.0-1.0水平反転確率
flipudfloat0.00.0-1.0垂直反転確率
mosaicfloat1.00.0-1.0モザイク拡張
mixupfloat0.00.0-1.0MixUp拡張
copy_pastefloat0.00.0-1.0コピー&ペースト (segment)
パラメータ種類デフォルト範囲説明
fractionfloat1.00.1-1.0使用するデータセットの割合
freezeintnull0-100凍結する層の数
single_clsboolFalse-すべてのクラスを一つのクラスとして扱う
rectboolFalse-長方形のトレーニング
multi_scalefloat0.00.0-1.0多段階訓練場
valbool真実-トレーニング中に検証を実行する
resumeboolFalse-チェックポイントからトレーニングを再開する
説明
auto自動選択 (デフォルト)
SGD確率的勾配降下法
MuSGDミューオンSGD
AdamAdam オプティマイザ
AdamW重み減衰付きAdam
NAdamNAdamオプティマイザ
RAdamRAdamオプティマイザ
RMSPropRMSProp最適化アルゴリズム
AdamaxAdamaxオプティマイザ
パラメータ種類デフォルト範囲説明
boxfloat7.51-50ボックス損失の重み
clsfloat0.50.2-4分類損失重み
dflfloat1.50.4-6分布焦点損失
posefloat12.01-50ポーズによる減量(ポーズのみ)
kobjfloat1.00.5-10キーポイントの物体性(姿勢)
label_smoothingfloat0.00.0-0.1ラベル平滑化係数

タスク固有のパラメータ

一部のパラメータは特定のタスクにのみ適用されます:

  • 検出タスクのみ (detect、segment、pose、obb — classifyではない): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • セグメントのみ: copy_paste
  • ポーズのみ: pose (損失重み), kobj (キーポイントの物体性)


📅 2ヶ月前に作成✏️ 11日前に更新
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

コメント