推論
Ultralytics Platform 学習済みモデルのテスト用推論APIを提供します。ブラウザベースの Predict クイック検証用のタブまたは REST API プログラムによるアクセス用。

予測タブ
すべてのモデルには以下が含まれます Predict ブラウザベース推論用タブ:
- モデルに移動
- 予測タブをクリックしてください
- 画像をアップロードする、例を使用する、またはウェブカメラを開く
- バウンディングボックスのオーバーレイで予測を即座に確認

入力方法
予測パネルは複数の入力方式をサポートしています:
| メソッド | 説明 |
|---|---|
| 画像アップロード | 画像をドラッグ&ドロップするかクリックしてアップロードしてください |
| 例示画像 | 組み込みの例(データセット画像またはデフォルト)をクリック |
| ウェブカメラキャプチャ | ライブカメラ映像と単一フレームキャプチャ |
graph LR
A[Upload Image] --> D[Auto-Inference]
B[Example Image] --> D
C[Webcam Capture] --> D
D --> E[Results + Overlays]
style D fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
画像をアップロード
ドラッグ&ドロップまたはクリックしてアップロード:
- 対応形式: JPEG、PNG、WebP、AVIF、HEIC、JP2、TIFF、BMP、DNG、MPO
- 最大サイズ:10MB
- 自動推論:アップロード後、結果が自動的に表示されます
自動推論
画像のアップロード、例の選択、またはウェブカメラのフレームキャプチャ時に、予測パネルは自動的に推論を実行します。ボタンをクリックする必要はありません。
サンプル画像
予測パネルには、モデルにリンクされたデータセットからのサンプル画像が表示されます。データセットがリンクされていない場合、デフォルトのサンプルが使用されます:
| 画像 | コンテンツ |
|---|---|
bus.jpg | 車両のある街の風景 |
zidane.jpg | 人物のいるスポーツシーン |
OBBモデルの場合、代わりに船舶と空港の航空画像が表示されます。
プリロードされた画像
ページ読み込み時にサンプル画像が事前に読み込まれるため、サンプルをクリックするとダウンロード待ち時間なしでほぼ瞬時に推論が開始されます。
ウェブカメラ
ウェブカメラカードをクリックしてライブカメラ映像を開始します:
- カメラの許可を求められたら許可する
- 動画プレビューをクリックしてフレームをキャプチャする
- 推論はキャプチャされたフレーム上で自動的に実行される
- もう一度クリックするとウェブカメラが再起動します
結果を表示
推論結果の表示:
- クラスラベル付きバウンディングボックスをSVGオーバーレイとして
- 信頼度スコア (各detectに対して)
- データセットのカラーパレット(またはUltralyticsのUltralytics パレット)からクラスカラーを選択
- 速度内訳:前処理、推論、後処理、ネットワーク時間

結果パネルには以下が表示されます:
| フィールド | 説明 |
|---|---|
| 検出リスト | クラス名と信頼度を伴う各検出 |
| 速度統計 | 前処理、推論、後処理、ネットワーク (ms) |
| JSONレスポンス | コードブロック内の生のAPIレスポンス |
推論パラメータ
折りたたみ可能な「パラメータ」セクションのパラメータで検出動作を調整します:

| パラメータ | 範囲 | デフォルト | 説明 |
|---|---|---|---|
| 信頼度 | 0.01~1.0 | 0.25 | 最小信頼度しきい値 |
| IoU | 0.0-0.95 | 0.70 | NMS IoUしきい値 |
| 画像サイズ | 320, 640, 1280 | 640 | 入力サイズ変更(ボタン切り替え) |
自動再実行
パラメータを変更すると、現在の画像に対して自動的に推論が再実行されます(デバウンス時間500ミリ秒)。再アップロードの必要はありません。
信頼度しきい値
信頼度で予測をフィルタリング:
- 高め (0.5以上): 予測は少なく、より確実
- 低め (0.1-0.25): 予測は多く、ノイズが混じる可能性あり
- デフォルト (0.25): ほとんどのユースケースでバランスが取れている
IoUしきい値
NMSを制御:
- より高い (0.7+): 重なり合うボックスをさらに許可する
- 下位 (0.3-0.5): 近接検出をより積極的に統合する
- デフォルト (0.70): ほとんどのユースケースでバランスの取れたNMS
展開予測
各実行 専用エンドポイント 以下を含む Predict デプロイメントカード上で直接タブを操作します。これにより、共有予測サービスではなくデプロイメント固有の推論サービスが使用され、ブラウザからデプロイされたエンドポイントをテストできるようになります。
REST API
推論にプログラムでアクセス:
認証
リクエストにAPIキーを含めます:
Authorization: Bearer YOUR_API_KEY
APIキーが必要です
独自のスクリプト、ノートブック、またはアプリから推論を実行するには、APIキーを含めてください。APIキーは以下で生成できます。 Settings (プロフィールタブのAPIキーセクション)
エンドポイント
POST https://platform.ultralytics.com/api/models/{modelId}/predict
リクエスト
import requests
url = "https://platform.ultralytics.com/api/models/MODEL_ID/predict"
headers = {"Authorization": "Bearer YOUR_API_KEY"}
files = {"file": open("image.jpg", "rb")}
data = {"conf": 0.25, "iou": 0.7, "imgsz": 640}
response = requests.post(url, headers=headers, files=files, data=data)
print(response.json())
curl -X POST \
"https://platform.ultralytics.com/api/models/MODEL_ID/predict" \
-H "Authorization: Bearer YOUR_API_KEY" \
-F "file=@image.jpg" \
-F "conf=0.25" \
-F "iou=0.7" \
-F "imgsz=640"
const formData = new FormData();
formData.append("file", fileInput.files[0]);
formData.append("conf", "0.25");
formData.append("iou", "0.7");
formData.append("imgsz", "640");
const response = await fetch(
"https://platform.ultralytics.com/api/models/MODEL_ID/predict",
{
method: "POST",
headers: { Authorization: "Bearer YOUR_API_KEY" },
body: formData,
}
);
const result = await response.json();
console.log(result);

応答
{
"images": [
{
"shape": [1080, 1920],
"results": [
{
"class": 0,
"name": "person",
"confidence": 0.92,
"box": { "x1": 100, "y1": 50, "x2": 300, "y2": 400 }
},
{
"class": 2,
"name": "car",
"confidence": 0.87,
"box": { "x1": 400, "y1": 200, "x2": 600, "y2": 350 }
}
],
"speed": {
"preprocess": 1.2,
"inference": 12.5,
"postprocess": 2.3
}
}
],
"metadata": {
"imageCount": 1,
"functionTimeCall": 0.018,
"model": "model.pt",
"version": {
"ultralytics": "8.4.14",
"torch": "2.6.0",
"torchvision": "0.21.0",
"python": "3.13.0"
}
}
}

レスポンスフィールド
| フィールド | 種類 | 説明 |
|---|---|---|
images | 配列 | 処理済み画像の一覧 |
images[].shape | 配列 | 画像サイズ [高さ, 幅] |
images[].results | 配列 | detect結果のリスト |
images[].results[].name | string | クラス名 |
images[].results[].confidence | float | detect信頼度 (0-1) |
images[].results[].box | オブジェクト | バウンディングボックス座標 |
images[].speed | オブジェクト | 処理時間(ミリ秒単位) |
metadata | オブジェクト | メタデータとバージョン情報を要求する |
タスク固有のレスポンス
レスポンス形式はタスクによって異なります:
{
"class": 0,
"name": "person",
"confidence": 0.92,
"box": {"x1": 100, "y1": 50, "x2": 300, "y2": 400}
}
{
"class": 0,
"name": "person",
"confidence": 0.92,
"box": {"x1": 100, "y1": 50, "x2": 300, "y2": 400},
"segments": [[100, 50], [150, 60], ...]
}
{
"class": 0,
"name": "person",
"confidence": 0.92,
"box": {"x1": 100, "y1": 50, "x2": 300, "y2": 400},
"keypoints": [
{"x": 200, "y": 75, "conf": 0.95},
...
]
}
{
"results": [
{"class": 0, "name": "cat", "confidence": 0.95},
{"class": 1, "name": "dog", "confidence": 0.03}
]
}
{
"class": 0,
"name": "ship",
"confidence": 0.89,
"box": {"x1": 100, "y1": 50, "x2": 300, "y2": 400},
"obb": {"x1": 105, "y1": 48, "x2": 295, "y2": 55, "x3": 290, "y3": 395, "x4": 110, "y4": 402}
}
レート制限
共有推論はレート制限される APIキーあたり毎分20リクエストスロットリングされた場合、APIは 429 とともに Retry-After ヘッダー。全文を参照 レート制限リファレンス すべてのエンドポイントカテゴリに対して。
スループットをさらに向上させたいですか?
専用エンドポイントをデプロイして、レート制限なしの無制限推論、予測可能なスループット、一貫した低遅延応答を実現します。ローカル推論については、Predictモードガイドを参照してください。
エラー処理
一般的なエラーレスポンス:
| コード | メッセージ | ソリューション |
|---|---|---|
| 400 | 無効な画像 | ファイル形式を確認してください |
| 401 | 認証されていません | APIキーを確認してください |
| 404 | モデルが見つかりません | モデルIDを確認する |
| 429 | レート制限されています | 待機して再試行するか、無制限のスループットを実現する専用エンドポイントを使用してください |
| 500 | サーバーエラー | リクエストを再試行してください |
よくある質問
ビデオで推論を実行できますか?
APIは個々のフレームを受け入れます。ビデオの場合:
- フレームをローカルで抽出する
- 各フレームをAPIに送信する
- 結果を集計する
リアルタイム動画の場合、専用エンドポイントのデプロイを検討してください。
アノテーション付き画像はどのように取得しますか?
APIはJSON予測を返します。視覚化するには:
- 予測を使用してローカルでボックスを描画する
- Ultralyticsを使用する
plot()メソッド:
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
results = model("image.jpg")
results[0].save("annotated.jpg")
予測モードのドキュメントを参照して、完全な結果APIと可視化オプションを確認してください。
最大画像サイズはどのくらいですか?
- アップロード制限: 10MB
- Recommended: <5MB for fast inference
- 自動リサイズ画像は選択されたサイズにリサイズされます
Image Sizeパラメータ
大きな画像は、アスペクト比を維持しながら自動的にリサイズされます。
バッチ推論を実行できますか?
現在のAPIは1リクエストにつき1画像を処理します。バッチ処理の場合:
- 同時リクエストを送信する
- スループット向上のために専用エンドポイントを使用する
- 大規模なバッチ処理にはローカル推論を検討してください
Pythonによるバッチ推論
import concurrent.futures
import requests
url = "https://predict-abc123.run.app/predict"
headers = {"Authorization": "Bearer YOUR_API_KEY"}
images = ["img1.jpg", "img2.jpg", "img3.jpg"]
def predict(image_path):
with open(image_path, "rb") as f:
return requests.post(url, headers=headers, files={"file": f}).json()
with concurrent.futures.ThreadPoolExecutor(max_workers=4) as executor:
results = list(executor.map(predict, images))