Ultralytics Platform
Ultralytics Platformは、データ準備からモデルデプロイメントまで、MLワークフロー全体を効率化する包括的なエンドツーエンドのコンピュータービジョンプラットフォームです。インフラストラクチャの複雑さなしに、本番環境対応のコンピュータービジョンソリューションを必要とするチームや個人向けに構築されています。

Ultralytics Platformとは?
Ultralytics Platformは、断片化したMLツールを統合ソリューションに置き換えるように設計されています。以下の機能を組み合わせています。
- Roboflow - データ管理とアノテーション
- Weights & Biases - 実験track
- SageMaker - クラウド学習
- HuggingFace - モデルデプロイ
- Arize - モニタリング
YOLO26およびYOLO11モデルをネイティブにサポートするオールインワンのプラットフォーム。
ワークフロー: アップロード → アノテーション → トレーニング → エクスポート → デプロイ
このプラットフォームは、エンドツーエンドのワークフローを提供します。
graph LR
subgraph Data["📁 Data"]
A[Upload] --> B[Annotate]
B --> C[Analyze]
end
subgraph Train["🚀 Train"]
D[Configure] --> E[Train on GPU]
E --> F[View Metrics]
end
subgraph Deploy["🌐 Deploy"]
G[Export] --> H[Deploy Endpoint]
H --> I[Monitor]
end
Data --> Train --> Deploy
| ステージ | 機能 |
|---|---|
| アップロード | 画像 (50MB)、動画 (1GB)、ZIPアーカイブ (10GB) を自動処理で対応 |
| アノテーション | 手動ツール、SAMスマートアノテーション、YOLO自動ラベリングが全5タスクタイプに対応(サポートされるタスクを参照) |
| トレーニング | クラウドGPU (19個の無料枠 + 3個のPro限定枠)、リアルタイムメトリクス、プロジェクト管理 |
| エクスポート | 17種類のデプロイメント形式 (ONNX、TensorRT、CoreML、TFLiteなど; サポートされる形式を参照) |
| デプロイ | 43のグローバルリージョン、専用エンドポイント、オートスケーリング、モニタリング |
できること:
- 画像、動画、ZIPアーカイブをアップロードしてトレーニングデータセットを作成
- 全5種類のYOLOタスクタイプに対応したインタラクティブなオーバーレイでアノテーションを可視化(サポートされるタスクを参照)
- クラウドGPU (19個の無料枠、Proでは22個) を使用して、リアルタイムメトリクス付きでモデルをトレーニング
- 17種類のデプロイメント形式 (ONNX、TensorRT、CoreML、TFLiteなど) にエクスポート
- ワンクリック専用エンドポイントで43のグローバルリージョンにデプロイ
- トレーニングの進捗、デプロイメントの健全性、および使用状況メトリクスを監視
- プロジェクトとデータセットをコミュニティ向けに公開することで共同作業
マルチリージョンインフラストラクチャ
お客様のデータは、お客様のリージョンに留まります。Ultralytics Platformは、以下の3つのグローバルリージョンでインフラストラクチャを運用しています。
| リージョン | ラベル | ロケーション | 最適な用途 |
|---|---|---|---|
| 米国 | アメリカ大陸 | アイオワ州、米国 | アメリカ大陸のユーザー、アメリカ大陸で最速 |
| 欧州 | ヨーロッパ、中東、アフリカ | ベルギー、ヨーロッパ | ヨーロッパのユーザー、GDPR準拠 |
| AP | アジア太平洋 | 香港、アジア太平洋 | アジア太平洋地域のユーザー、APACで最低のレイテンシー |
オンボーディング時にリージョンを選択すると、お客様のすべてのデータ、モデル、デプロイメントはそのリージョンに保持されます。
リージョンは永続的です
アカウント作成後、データリージョンは変更できません。オンボーディング中に、プラットフォームは各リージョンへのレイテンシーを測定し、最も近いものを推奨します。慎重に選択してください。
主な特徴
データ準備
- データセット管理: 画像、動画、またはZIPアーカイブを自動処理でアップロード
- アノテーションエディター: 全5種類のYOLOタスクタイプ(detect、segment、pose、OBB、classify; サポートされるタスクを参照)の手動アノテーション
- スケルトンテンプレート: 組み込み(人物、手、顔、犬、ボックス)およびカスタムスケルトンテンプレートによるワンクリックポーズアノテーション
- SAMスマートアノテーション: 最高の精度を実現する5つのモデル(SAM 2.1 (Tiny、Small、Base、Large) および新しいSAM 3)によるクリックベースのインテリジェントアノテーション。アノテーションツールバーから画像ごとにモデルを切り替えることができます。
- 自動アノテーション: 学習済みモデルを使用して新しいデータに事前ラベル付け
- データセットバージョニング: 再現可能なトレーニングのために、説明付きの番号付きNDJSONスナップショットを作成します。
- 統計: クラス分布、ロケーションヒートマップ、次元分析
graph LR
A[Upload ZIP/Images/Video] --> B[Auto-Process]
B --> C[Browse & Filter]
C --> D{Annotate}
D --> E[Manual Tools]
D --> F[SAM Smart]
D --> G[YOLO Auto-Label]
E --> H[Train-Ready Dataset]
F --> H
G --> H
サポートされているタスクタイプ
アノテーションエディターは、全5種類のYOLOタスクタイプ、すなわちdetect(バウンディングボックス)、segment(ポリゴン)、pose(キーポイント)、OBB(指向性ボックス)、およびclassify(画像レベルラベル)をサポートしています。各タスクタイプには専用の描画ツールとキーボードショートカットがあります。
モデル学習
- クラウドトレーニング: クラウドGPU (19個の無料枠、Proでは22個) を使用して、リアルタイムメトリクス付きでトレーニング
- リモートトレーニング: どこでもトレーニングし、メトリクスをプラットフォームにストリーミング(W&Bスタイル)
- プロジェクト整理: 関連モデルのグループ化、実験の比較、アクティビティの追跡
- 17種類のエクスポート形式: ONNX、TensorRT、CoreML、TFLiteなど(サポートされる形式を参照)

モデルは、ウェブUI (クラウドトレーニング) またはご自身のマシン (リモートトレーニング) のいずれかを通じてトレーニングできます:
- プロジェクトに移動します。
- クリック
Train Model - データセット、モデル、GPU、エポックを選択
- リアルタイムの損失曲線とメトリクスを監視
# Install ultralytics
pip install "ultralytics>=8.4.14"
# Set your API key
export ULTRALYTICS_API_KEY="your_api_key"
# Train and stream metrics to the platform
yolo train model=yolo26n.pt data=coco.yaml epochs=100 project=username/my-project name=exp1
import os
from ultralytics import YOLO
os.environ["ULTRALYTICS_API_KEY"] = "your_api_key"
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="exp1",
)
# Metrics stream to Platform automatically
デプロイ
- 推論テスト: カスタム画像を使用してブラウザで直接モデルをテスト
- 専用エンドポイント: オートスケーリングで43のグローバルリージョンにデプロイ
- モニタリング: リアルタイムメトリクス、リクエストログ、パフォーマンスダッシュボード
graph LR
A[Trained Model] --> B{Action}
B --> C[Browser Predict]
B --> D[Export Format]
B --> E[Deploy Endpoint]
D --> F[ONNX / TensorRT / CoreML / TFLite / ...]
E --> G[43 Global Regions]
G --> H[API Endpoint URL]
H --> I[Monitor & Scale]
デプロイ後、任意の言語からエンドポイントを呼び出します:
import requests
url = "https://your-endpoint-url/predict"
headers = {"Authorization": "Bearer your_api_key"}
with open("image.jpg", "rb") as f:
response = requests.post(url, headers=headers, files={"file": f})
print(response.json())
curl -X POST "https://your-endpoint-url/predict" \
-H "Authorization: Bearer your_api_key" \
-F "file=@image.jpg"
const form = new FormData();
form.append("file", fileInput.files[0]);
const response = await fetch("https://your-endpoint-url/predict", {
method: "POST",
headers: { Authorization: "Bearer your_api_key" },
body: form,
});
const results = await response.json();
console.log(results);
アカウント管理
- チームと組織: チームメンバーと共同作業し、役割と招待を管理
- APIキー: リモートトレーニングおよびAPIアクセス用のセキュアなキー管理
- クレジットと請求: 透明性の高い料金設定による従量課金制トレーニング
- アクティビティフィード: すべてのアカウントイベントとアクションをtrack
- ゴミ箱と復元: アイテムの復元機能を備えた30日間のソフト削除
- GDPR準拠: データのエクスポートとアカウントの削除
プランティア
| 機能 | 無料 | Pro(月額29ドル) | エンタープライズ |
|---|---|---|---|
| サインアップクレジット | $5 / $25* | - | カスタム |
| 月額クレジット | - | $30/シート/月 | カスタム |
| モデル | 100 | 500 | 無制限 |
| 同時トレーニング数 | 3 | 10 | 無制限 |
| デプロイ | 3 | 10 | 無制限 |
| ストレージ | 100 GB | 500 GB | 無制限 |
| クラウドGPUの種類 | 19 | 22 (H200/B200を含む) | 22 |
| チーム | - | 最大5名 | 最大50 |
| サポート | コミュニティ | 優先度 | 専用 |
*サインアップ時は$5、または認証済みの会社/仕事用メールアドレスの場合は$25。
クイックリンク
これらのリソースから始めましょう:
- クイックスタート: 最初のプロジェクトを作成し、数分でモデルをトレーニング
- データセット: トレーニングデータをアップロードして管理
- アノテーション: 手動およびAI支援ツールでデータにラベル付け
- プロジェクト: モデルと実験を整理
- クラウドトレーニング: クラウドGPUでトレーニング
- 推論: モデルをテスト
- エンドポイント: モデルを本番環境にデプロイ
- モニタリング: デプロイのパフォーマンスをtrack
- APIキー: APIアクセスを管理
- 請求: クレジットと支払い
- アクティビティ: アカウントイベントをtrack
- ゴミ箱: 削除されたアイテムを復元
- REST API: APIリファレンス
よくある質問
Ultralytics Platformの利用を開始するには?
Ultralytics Platformを始めるには:
- サインアップ: platform.ultralytics.comでアカウントを作成
- リージョンの選択: オンボーディング中にデータリージョン (米国、EU、またはAP) を選択
- データセットのアップロード: データセットセクションに移動してデータをアップロード
- モデルのトレーニング: プロジェクトを作成し、クラウドGPUでトレーニングを開始
- デプロイ: モデルをテストし、専用のエンドポイントにデプロイ
詳細なガイドについては、クイックスタートページを参照してください。
Ultralytics Platformの利点は何ですか?
Ultralytics Platformが提供するもの:
- 統合ワークフロー: データ、トレーニング、デプロイメントを一箇所で
- マルチリージョン: 米国、EU、またはAPリージョンでのデータレジデンシー
- ノーコードトレーニング: コードを書かずに高度なYOLOモデルをトレーニング
- リアルタイムメトリクス: トレーニングの進捗状況をストリームし、デプロイメントを監視
- 43のデプロイリージョン: 世界中のユーザーの近くにモデルをデプロイ
- 5種類のタスクタイプ: 検出、セグメンテーション、姿勢推定、OBB、分類をサポート(タスクドキュメントを参照)
- AIアシストアノテーション: SAMと自動ラベリングによりデータ準備を高速化
クラウド学習で利用可能なGPUオプションは何ですか?
Ultralytics Platformは、クラウドトレーニング向けに複数のGPUタイプをサポートしています:
| GPU | VRAM | 1時間あたりのコスト | 最適な用途 |
|---|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 | 小規模データセット、テスト |
| RTX A4500 | 20 GB | $0.24 | 小規模~中規模データセット |
| RTX A5000 | 24 GB | $0.26 | 中規模データセット |
| RTX 4000 Ada | 20 GB | $0.38 | 中規模データセット |
| L4 | 24 GB | $0.39 | 推論に最適化 |
| A40 | 48 GB | $0.40 | より大きなバッチサイズ |
| RTX 3090 | 24 GB | $0.46 | 一般的なトレーニング |
| RTX A6000 | 48 GB | $0.49 | 大規模モデル |
| RTX 4090 | 24 GB | $0.59 | 優れた価格性能比 |
| RTX 6000 Ada | 48 GB | $0.77 | 大規模バッチ学習 |
| L40S | 48 GB | $0.86 | 大規模バッチ学習 |
| RTX 5090 | 32 GB | $0.89 | 最新世代 |
| L40 | 48 GB | $0.99 | 大規模モデル |
| A100 PCIe | 80 GB | $1.39 | 本番環境での学習 |
| A100 SXM | 80 GB | $1.49 | 本番環境での学習 |
| RTX PRO 6000 | 96 GB | $1.89 | 推奨されるデフォルト |
| H100 PCIe | 80 GB | $2.39 | 最速の学習 |
| H100 SXM | 80 GB | $2.69 | 最速の学習 |
| H100 NVL | 94 GB | $3.07 | 大容量メモリトレーニング |
| H200 NVL | 143 GB | $3.39 | 最大メモリ (Pro+) |
| H200 SXM | 141 GB | $3.59 | 最大パフォーマンス (Pro+) |
| B200 | 180 GB | $4.99 | 最大規模のモデル (Pro+) |
完全な料金とGPUオプションについては、クラウドトレーニングを参照してください。
リモート学習はどのように機能しますか?
独自のハードウェアでモデルをトレーニングし、Weights & Biasesと同様にリアルタイムメトリクスをプラットフォームにストリーミングできます。
パッケージバージョンの要件
プラットフォーム連携にはultralytics>=8.4.14が必要です。これより古いバージョンはプラットフォームでは動作しません。
pip install "ultralytics>=8.4.14"
# Set your API key
export ULTRALYTICS_API_KEY="your_api_key"
# Train with project/name to stream metrics
yolo train model=yolo26n.pt data=coco.yaml epochs=100 project=username/my-project name=exp1
import os
from ultralytics import YOLO
os.environ["ULTRALYTICS_API_KEY"] = "your_api_key"
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="exp1",
)
# Train using a Platform dataset directly
export ULTRALYTICS_API_KEY="your_api_key"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 project=username/my-project name=exp1
リモートトレーニングの詳細については、クラウドトレーニングを参照してください。
利用可能なアノテーションツールは何ですか?
プラットフォームには、以下の機能をサポートする全機能搭載のアノテーションエディターが含まれています。
- 手動ツール: バウンディングボックス、ポリゴン、スケルトンテンプレート付きキーポイント、向き付きボックス、分類
- スケルトンテンプレート: 組み込み(人物、手、顔、犬、ボックス)またはカスタムテンプレートを使用して、すべてのキーポイントを一度に配置します。
- SAM Smart Annotation: クリックして正確なマスクを生成します — ツールバーのモデルピッカーから、SAM 2.1 Tiny/Small/Base/Large、または新しいSAM 3を選択してください
- キーボードショートカット: ホットキーによる効率的なワークフロー
| ショートカット | アクション |
|---|---|
V | モードを選択 |
S | SAMスマートアノテーションモード |
A | 自動アノテーションモード |
1 - 9 | 番号でクラスを選択 |
Delete | 選択したアノテーションを削除 |
Ctrl+Z | 元に戻す |
Ctrl+Y | やり直す |
Escape | 現在の操作をキャンセル |
完全なガイドについては、アノテーションを参照してください。
どのようなエクスポート形式がサポートされていますか?
プラットフォームは17種類のデプロイメント形式をサポートしています:
| 形式 | ファイル拡張子 | ユースケース |
|---|---|---|
| ONNX | .onnx | クロスプラットフォームデプロイメント |
| TorchScript | .torchscript | C++デプロイ |
| OpenVINO | _openvino_model | Intelハードウェア |
| TensorRT | .engine | NVIDIA GPU推論 |
| CoreML | .mlpackage | Appleデバイス |
| TFLite | .tflite | モバイル/エッジデバイス |
| TF SavedModel | _saved_model | TensorFlowエコシステム |
| TF GraphDef | .pb | TensorFlowレガシー |
| PaddlePaddle | _paddle_model | Baiduエコシステム |
| NCNN | _ncnn_model | モバイル (Android/ARM) |
| Edge TPU | _edgetpu.tflite | Google Coralデバイス |
| TF.js | _web_model | ブラウザデプロイメント |
| MNN | .mnn | Alibaba モバイル |
| RKNN | _rknn_model | Rockchip NPU |
| IMX500 | _imx_model | Sony IMX500センサー |
| Axelera | _axelera_model | Axelera AIアクセラレーター |
| ExecuTorch | _executorch_model | PyTorch モバイル |
形式固有のオプションについては、モデルのエクスポート、エクスポートモードガイド、およびインテグレーションインデックスを参照してください。
トラブルシューティング
データセットに関する問題
| 問題 | ソリューション |
|---|---|
| データセットが処理されない | 対応ファイル形式(JPEG、PNG、WebPなど)を確認してください。最大ファイルサイズ:画像 50MB、動画 1GB、ZIP 10GB |
| アノテーションの欠落 | ラベルが以下にあることを確認してください YOLO 形式 with .txt 画像ファイル名と一致するファイル |
| 「学習用分割が必要です」 | 追加 train/ フォルダーをデータセット構造に追加するか、以下で分割を作成してください データセット設定 |
| クラス名が未定義 | を追加します data.yaml ファイルと names: リスト(参照: YOLO 形式)、またはデータセット設定でクラスを定義してください |
トレーニングに関する問題
| 問題 | ソリューション |
|---|---|
| トレーニングが開始されません | 設定 > 請求でクレジット残高を確認してください。プラスの残高が必要です。 |
| メモリ不足エラー | バッチサイズを減らすか、より小さいモデル (n/s) を使用するか、より多くのVRAMを持つGPUを選択してください |
| メトリクスが低い | データセットの品質を確認し、エポック数を増やし、データ拡張を試み、クラスバランスを検証してください |
| トレーニングが遅い | より高速なGPUを選択し、画像サイズを減らし、データセットがボトルネックになっていないか確認してください |
デプロイに関する問題
| 問題 | ソリューション |
|---|---|
| エンドポイントが応答しません | エンドポイントステータス(準備完了 vs 停止中)を確認してください。コールドスタートには5〜15秒かかる場合があります。 |
| 401 認証されていません | APIキーが正しいこと、および必要なスコープを持っていることを確認してください |
| 推論が遅い | モデルサイズを確認し、TensorRT exportを検討し、より近いリージョンを選択してください。 |
| エクスポートに失敗しました | 一部の形式では特定のモデルアーキテクチャが必要です。最も広範な互換性のためにはONNXを試してください。 |
よくある質問
サインアップ後にユーザー名を変更できますか?
いいえ、ユーザー名は永続的であり、変更できません。サインアップ時に慎重に選択してください。
データリージョンを変更できますか?
いいえ、データリージョンはサインアップ時に選択され、変更できません。リージョンを切り替えるには、新しいアカウントを作成し、データを再アップロードしてください。
クレジットを増やすにはどうすればよいですか?
設定 > 請求 > クレジット追加 に進んでください。5ドルから1000ドルまでのクレジットを購入できます。購入したクレジットは期限切れになりません。
トレーニングが失敗した場合はどうなりますか?
完了した計算時間に対してのみ課金されます。チェックポイントは保存され、トレーニングを再開できます。
学習済みモデルをダウンロードできますか?
はい、任意のモデルページでダウンロードアイコンをクリックして、 .pt ファイルまたはエクスポートされた形式をダウンロードできます。
自分の作品を公開するにはどうすればよいですか?
プロジェクトまたはデータセットの設定を編集し、公開設定を「Public」に切り替えます。公開されたコンテンツは「Explore」ページに表示されます。
ファイルサイズの制限は何ですか?
画像: 50MB、動画: 1GB、ZIPアーカイブ: 10GB。より大きなファイルの場合は、複数に分割してアップロードしてください。
削除されたアイテムはゴミ箱にどのくらい保持されますか?
30日間です。その後、アイテムは完全に削除され、復元することはできません。
プラットフォームのモデルを商用利用できますか?
FreeプランおよびProプランはAGPLライセンスを使用します。AGPL要件なしで商用利用する場合は、Enterpriseライセンスについてsales@ultralytics.comまでお問い合わせください。