コンテンツにスキップ

PyTorch HubからYOLOv5をロード中

￿このガイドでは、PyTorch Hub(https://pytorch.org/hub/ultralytics_yolov5)からYOLOv5￿をロードする方法について説明します。

始める前に

requirements.txtPython>=3.8.0環境にインストールします。これには、PyTorch>=1.8が含まれます。モデルデータセットは、最新のYOLOv5リリースから自動的にダウンロードされます。

pip install -r https://raw.githubusercontent.com/ultralytics/yolov5/master/requirements.txt

￿ProTip: https://github.com/ultralytics/yolov5をクローンすることは必須ではありません￿

PyTorch HubでYOLOv5をロードする

簡単な例

この例では、事前学習済みのYOLOv5sモデルをPyTorch Hubからロードします。 model そして、推論のために画像を渡します。 'yolov5s' は、最も軽量で高速なYOLOv5モデルです。利用可能なすべてのモデルの詳細については、以下を参照してください。 README.

import torch

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Image
im = "https://ultralytics.com/images/zidane.jpg"

# Inference
results = model(im)

results.pandas().xyxy[0]
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

詳細な例

この例は以下を示しています バッチ推論 with PIL および OpenCV 画像ソース。 results 〜できる 印刷済み コンソールへ 保存されました 宛先 runs/hub, 表示 サポートされている環境の画面に表示し、以下のように返します。 tensor(テンソル) または pandas データフレーム。

import cv2
import torch
from PIL import Image

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Images
for f in "zidane.jpg", "bus.jpg":
    torch.hub.download_url_to_file("https://ultralytics.com/images/" + f, f)  # download 2 images
im1 = Image.open("zidane.jpg")  # PIL image
im2 = cv2.imread("bus.jpg")[..., ::-1]  # OpenCV image (BGR to RGB)

# Inference
results = model([im1, im2], size=640)  # batch of images

# Results
results.print()
results.save()  # or .show()

results.xyxy[0]  # im1 predictions (tensor)
results.pandas().xyxy[0]  # im1 predictions (pandas)
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

zidane.jpg に対する YOLO 推論結果 bus.jpg に対する YOLO 推論結果

すべての推論オプションについては、YOLOv5を参照してください。 AutoShape() 順伝播 メソッド.

推論設定

YOLOv5 モデルには、信頼度閾値IoU閾値などのさまざまな推論属性が含まれており、これらは以下によって設定できます。

model.conf = 0.25  # NMS confidence threshold
model.iou = 0.45  # NMS IoU threshold
model.agnostic = False  # NMS class-agnostic
model.multi_label = False  # NMS multiple labels per box
model.classes = None  # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
model.max_det = 1000  # maximum number of detections per image
model.amp = False  # Automatic Mixed Precision (AMP) inference

results = model(im, size=320)  # custom inference size

デバイス

モデルは、作成後、任意のデバイスに転送できます。

model.cpu()  # CPU
model.cuda()  # GPU
model.to(device)  # i.e. device=torch.device(0)

モデルは、任意の場所で直接作成することもできます。 device:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", device="cpu")  # load on CPU

￿ProTip: 入力画像は、推論前に正しいモデルデバイスに自動的に転送されます。

出力の抑制

モデルは、以下を使用してサイレントにロードできます。 _verbose=False:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", _verbose=False)  # load silently

入力チャンネル

デフォルトの 3 つではなく、4 つの入力チャネルを持つ事前学習済み YOLOv5s モデルをロードするには:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", channels=4)

この場合、モデルは学習済みの重みで構成されますが、ただし、最初の入力レイヤーは、学習済みの入力レイヤーと同じ形状ではなくなります。入力レイヤーは、ランダムな重みで初期化されたままになります。

クラス数

デフォルトの 80 クラスではなく、10 個の出力クラスを持つ事前学習済み YOLOv5s モデルをロードするには:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", classes=10)

この場合、モデルは学習済みの重みで構成されますが、ただし、出力レイヤーは、学習済みの出力レイヤーと同じ形状ではなくなります。出力レイヤーは、ランダムな重みで初期化されたままになります。

強制リロード

上記の手順で問題が発生した場合は、以下を設定してください。 force_reload=True 既存のキャッシュを破棄し、PyTorch Hubから最新のYOLOv5バージョンを強制的に再ダウンロードすることで改善される場合があります。

model = torch.hub.load("ultralytics/yolov5", "yolov5s", force_reload=True)  # force reload

スクリーンショット推論

デスクトップ画面で推論を実行するには:

import torch
from PIL import ImageGrab

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Image
im = ImageGrab.grab()  # take a screenshot

# Inference
results = model(im)

マルチGPU推論

YOLOv5 モデルは、スレッド化された推論により、複数の GPU に並行してロードできます。

import threading

import torch


def run(model, im):
    """Performs inference on an image using a given model and saves the output; model must support `.save()` method."""
    results = model(im)
    results.save()


# Models
model0 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=0)
model1 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=1)

# Inference
threading.Thread(target=run, args=[model0, "https://ultralytics.com/images/zidane.jpg"], daemon=True).start()
threading.Thread(target=run, args=[model1, "https://ultralytics.com/images/bus.jpg"], daemon=True).start()

学習

推論ではなくトレーニングのために YOLOv5 モデルをロードするには、以下を設定します。 autoshape=False。(スクラッチからトレーニングするために)ランダムに初期化された重みを持つモデルをロードするには、以下を使用します。 pretrained=False。この場合、独自のトレーニングスクリプトを提供する必要があります。または、YOLOv5を参照してください。 カスタムデータチュートリアルのトレーニング モデルのトレーニングに使用します。

import torch

model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False)  # load pretrained
model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False, pretrained=False)  # load scratch

Base64の結果

APIサービスで使用するため。詳細については、Flask REST APIの例を参照してください。

import base64
from io import BytesIO

from PIL import Image

results = model(im)  # inference

results.ims  # array of original images (as np array) passed to model for inference
results.render()  # updates results.ims with boxes and labels
for im in results.ims:
    buffered = BytesIO()
    im_base64 = Image.fromarray(im)
    im_base64.save(buffered, format="JPEG")
    print(base64.b64encode(buffered.getvalue()).decode("utf-8"))  # base64 encoded image with results

切り抜かれた結果

結果は、検出された切り抜きとして返され、保存できます。

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

Pandasの結果

結果はPandas DataFramesとして返すことができます。

results = model(im)  # inference
results.pandas().xyxy[0]  # Pandas DataFrame
Pandasの出力(クリックで展開)
print(results.pandas().xyxy[0])
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

ソートされた結果

結果は列でソートできます。例えば、ナンバープレートの数字検出を左から右(x軸)にソートするなど。

results = model(im)  # inference
results.pandas().xyxy[0].sort_values("xmin")  # sorted left-right

ボックスで切り抜かれた結果

結果は、検出された切り抜きとして返され、保存できます。

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

JSONの結果

結果は、変換されるとJSON形式で返すことができます。 .pandas() を使用してデータフレームを .to_json() メソッド。JSON形式は、を使用して変更できます。 orient 引数。pandasを参照してください。 .to_json() ドキュメンテーション 詳細について。

results = model(ims)  # inference
results.pandas().xyxy[0].to_json(orient="records")  # JSON img1 predictions
JSON出力(クリックして展開)
[
    {
        "xmin": 749.5,
        "ymin": 43.5,
        "xmax": 1148.0,
        "ymax": 704.5,
        "confidence": 0.8740234375,
        "class": 0,
        "name": "person"
    },
    {
        "xmin": 433.5,
        "ymin": 433.5,
        "xmax": 517.5,
        "ymax": 714.5,
        "confidence": 0.6879882812,
        "class": 27,
        "name": "tie"
    },
    {
        "xmin": 115.25,
        "ymin": 195.75,
        "xmax": 1096.0,
        "ymax": 708.0,
        "confidence": 0.6254882812,
        "class": 0,
        "name": "person"
    },
    {
        "xmin": 986.0,
        "ymin": 304.0,
        "xmax": 1028.0,
        "ymax": 420.0,
        "confidence": 0.2873535156,
        "class": 27,
        "name": "tie"
    }
]

カスタムモデル

この例では、カスタムの20クラスをロードします。 VOC-トレーニング済みのYOLOv5sモデル 'best.pt' PyTorch Hubを使用します。

import torch

model = torch.hub.load("ultralytics/yolov5", "custom", path="path/to/best.pt")  # local model
model = torch.hub.load("path/to/yolov5", "custom", path="path/to/best.pt", source="local")  # local repo

TensorRT、ONNX、およびOpenVINOモデル

PyTorch Hub は、カスタム学習モデルを含むほとんどの YOLOv5 エクスポート形式での推論をサポートしています。モデルのエクスポートの詳細については、TFLite、ONNX、CoreML、TensorRT エクスポートのチュートリアルを参照してください。

￿ProTip: TensorRTは、GPUベンチマークでPyTorchより最大2〜5倍高速になる可能性があります ￿ProTip: ONNXOpenVINOは、CPUベンチマークでPyTorchより最大2〜3倍高速になる可能性があります

import torch

model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.pt")  # PyTorch
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.torchscript")  # TorchScript
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.onnx")  # ONNX
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_openvino_model/")  # OpenVINO
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.engine")  # TensorRT
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.mlmodel")  # CoreML (macOS-only)
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.tflite")  # TFLite
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_paddle_model/")  # PaddlePaddle

サポートされている環境

Ultralyticsは、CUDACUDNNPythonPyTorchなどの必須依存関係がプリインストールされた、すぐに使用できるさまざまな環境を提供し、プロジェクトをすぐに開始できます。

プロジェクトのステータス

YOLOv5 CI

このバッジは、すべてのYOLOv5 GitHub Actions継続的インテグレーション(CI)テストが正常に合格していることを示します。これらのCIテストでは、トレーニング検証推論エクスポートベンチマークなど、さまざまな重要な側面についてYOLOv5の機能と性能を厳密にチェックします。これらのテストは、macOS、Windows、Ubuntuでの一貫した信頼性の高い動作を保証し、24時間ごと、および新しいコミットごとに行われます。



📅 1年前に作成 ✏️ 5ヶ月前に更新

コメント