コンテンツへスキップ

PyTorch ハブ

このガイドでは、YOLOv5 📚 からロードする方法を説明します。 PyTorchハブhttps://pytorch.org/hub/ultralytics_yolov5。

始める前に

requirements.txtをPython>=3.8.0環境にインストールする。 PyTorch>=1.8.モデルとデータセットは、最新のYOLOv5 リリースから自動的にダウンロードされます。

pip install -r https://raw.githubusercontent.com/ultralytics/yolov5/master/requirements.txt

💡 ProTip: https://github.com/ultralytics/ yolov5 のクローニングは必要 ありません😃。

負荷YOLOv5 PyTorch ハブ付き

簡単な例

この例では、PyTorch Hub から事前に学習された YOLOv5s モデルを次のようにロードします。 model と推論用の画像を渡す。 'yolov5s' は最軽量・最速のYOLOv5 。全モデルの詳細については README.

import torch

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Image
im = "https://ultralytics.com/images/zidane.jpg"

# Inference
results = model(im)

results.pandas().xyxy[0]
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

詳細例

この例では バッチ推論ピル そして オープンCV 画像ソース results は可能です。 プリント をコンソールに置く、 セーブ への runs/hub, 見せた として返される。 テンソル または パンダ データフレーム。

import cv2
import torch
from PIL import Image

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Images
for f in "zidane.jpg", "bus.jpg":
    torch.hub.download_url_to_file("https://ultralytics.com/images/" + f, f)  # download 2 images
im1 = Image.open("zidane.jpg")  # PIL image
im2 = cv2.imread("bus.jpg")[..., ::-1]  # OpenCV image (BGR to RGB)

# Inference
results = model([im1, im2], size=640)  # batch of images

# Results
results.print()
results.save()  # or .show()

results.xyxy[0]  # im1 predictions (tensor)
results.pandas().xyxy[0]  # im1 predictions (pandas)
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

YOLO ジダンに関する推論結果.jpg YOLO バスでの推論結果.jpg

すべての推論オプションについてはYOLOv5 AutoShape() 前方 方法.

推論設定

YOLOv5 モデルには、信頼度しきい値IoUしきい値など、さまざまな推論属性が含まれている:

model.conf = 0.25  # NMS confidence threshold
iou = 0.45  # NMS IoU threshold
agnostic = False  # NMS class-agnostic
multi_label = False  # NMS multiple labels per box
classes = None  # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
max_det = 1000  # maximum number of detections per image
amp = False  # Automatic Mixed Precision (AMP) inference

results = model(im, size=320)  # custom inference size

装置

モデルは作成後、任意のデバイスに転送することができます:

model.cpu()  # CPU
model.cuda()  # GPU
model.to(device)  # i.e. device=torch.device(0)

モデルは device:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", device="cpu")  # load on CPU

💡 ヒント:入力画像は推論の前に自動的に正しいモデルデバイスに転送されます。

サイレンス出力

モデルは _verbose=False:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", _verbose=False)  # load silently

入力チャンネル

デフォルトの3入力チャンネルではなく、4入力チャンネルで事前学習されたYOLOv5sモデルをロードする:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", channels=4)

この場合、モデルは一番最初の入力層を除いて、事前学習された重みで構成され、事前学習された入力層と同じ形ではなくなります。入力層はランダムな重みで初期化されたままである。

クラス数

デフォルトの80の出力クラスではなく、10の出力クラスで事前学習されたYOLOv5sモデルをロードする:

model = torch.hub.load("ultralytics/yolov5", "yolov5s", classes=10)

この場合、出力層以外は事前学習された重みで構成され、事前学習された出力層と同じ形ではなくなります。出力層はランダムな重みで初期化されたままである。

強制リロード

上記の手順で問題が発生した場合は、次のように設定します。 force_reload=True 既存のキャッシュを破棄し、PyTorch Hubから最新のYOLOv5 バージョンを強制的にダウンロードすることで解決する可能性があります。

model = torch.hub.load("ultralytics/yolov5", "yolov5s", force_reload=True)  # force reload

スクリーンショットの推論

デスクトップ画面で推論を実行するには

import torch
from PIL import ImageGrab

# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Image
im = ImageGrab.grab()  # take a screenshot

# Inference
results = model(im)

マルチGPU 推論

YOLOv5 モデルは、スレッド推論で複数のGPUに並列にロードできる:

import threading

import torch


def run(model, im):
    """Performs inference on an image using a given model and saves the output; model must support `.save()` method."""
    results = model(im)
    results.save()


# Models
model0 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=0)
model1 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=1)

# Inference
threading.Thread(target=run, args=[model0, "https://ultralytics.com/images/zidane.jpg"], daemon=True).start()
threading.Thread(target=run, args=[model1, "https://ultralytics.com/images/bus.jpg"], daemon=True).start()

トレーニング

推論ではなくトレーニングのためにYOLOv5 モデルをロードするには、次のように設定する。 autoshape=False.ランダムに初期化された重みを持つモデルをロードするには(ゼロから訓練するには)、次のようにします。 pretrained=False.この場合、独自のトレーニングスクリプトをご用意いただく必要があります。またはYOLOv5 カスタムデータを鍛えるチュートリアル をモデルトレーニングに使用する。

import torch

model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False)  # load pretrained
model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False, pretrained=False)  # load scratch

Base64の結果

APIサービスで使用する。詳細はhttps://github.com/ultralytics/yolov5/pull/2291 および Flask REST API の例を参照してください。

results = model(im)  # inference

results.ims  # array of original images (as np array) passed to model for inference
results.render()  # updates results.ims with boxes and labels
for im in results.ims:
    buffered = BytesIO()
    im_base64 = Image.fromarray(im)
    im_base64.save(buffered, format="JPEG")
    print(base64.b64encode(buffered.getvalue()).decode("utf-8"))  # base64 encoded image with results

トリミング結果

結果は検出作物として返され、保存される:

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

パンダの結果

結果はPandas DataFramesとして返すことができます:

results = model(im)  # inference
results.pandas().xyxy[0]  # Pandas DataFrame
パンダの出力(クリックで拡大)
print(results.pandas().xyxy[0])
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

ソート結果

結果は列ごとに並べ替えることができる。つまり、ナンバープレートの数字検出を左から右に並べ替えることができる(X軸):

results = model(im)  # inference
results.pandas().xyxy[0].sort_values("xmin")  # sorted left-right

箱詰めされた結果

結果は検出作物として返され、保存される:

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

JSONの結果

に変換すると、JSON形式で結果を返すことができます。 .pandas() データフレームを使用する .to_json() メソッドを使用します。JSONフォーマットは orient 引数を参照。パンダを参照。 .to_json() ドキュメンテーション 詳細はこちら。

results = model(ims)  # inference
results.pandas().xyxy[0].to_json(orient="records")  # JSON img1 predictions
JSON出力(クリックで展開)
[
    {
        "xmin": 749.5,
        "ymin": 43.5,
        "xmax": 1148.0,
        "ymax": 704.5,
        "confidence": 0.8740234375,
        "class": 0,
        "name": "person"
    },
    {
        "xmin": 433.5,
        "ymin": 433.5,
        "xmax": 517.5,
        "ymax": 714.5,
        "confidence": 0.6879882812,
        "class": 27,
        "name": "tie"
    },
    {
        "xmin": 115.25,
        "ymin": 195.75,
        "xmax": 1096.0,
        "ymax": 708.0,
        "confidence": 0.6254882812,
        "class": 0,
        "name": "person"
    },
    {
        "xmin": 986.0,
        "ymin": 304.0,
        "xmax": 1028.0,
        "ymax": 420.0,
        "confidence": 0.2873535156,
        "class": 27,
        "name": "tie"
    }
]

カスタムモデル

この例では、カスタム 20 クラスをロードします。 VOC-訓練されたYOLOv5sモデル 'best.pt' PyTorch ハブ付き。

import torch

model = torch.hub.load("ultralytics/yolov5", "custom", path="path/to/best.pt")  # local model
model = torch.hub.load("path/to/yolov5", "custom", path="path/to/best.pt", source="local")  # local repo

TensorRT ONNX および モデルOpenVINO

PyTorch Hubは、カスタム学習済みモデルを含む、ほとんどのYOLOv5 エクスポート形式での推論をサポートしています。モデルのエクスポートの詳細については、TFLite,ONNX,CoreML,TensorRT エクスポートチュートリアルを参照してください。

💡 プロヒント: TensorRTベンチマークでは、PyTorch より最大2~5倍速いかもしれません。 GPU ベンチマーク 💡 ProTip: ONNXそして OpenVINOはPyTorch よりも最大2-3倍速いかもしれない。 CPU ベンチマーク

import torch

model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.pt")  # PyTorch
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.torchscript")  # TorchScript
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.onnx")  # ONNX
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_openvino_model/")  # OpenVINO
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.engine")  # TensorRT
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.mlmodel")  # CoreML (macOS-only)
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.tflite")  # TFLite
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_paddle_model/")  # PaddlePaddle

対応環境

Ultralytics をはじめとする必要不可欠な依存関係がプリインストールされた、さまざまなすぐに使える環境を提供する。 CUDACUDNNPythonそして PyTorchなどがプリインストールされています。

プロジェクト状況

YOLOv5 CI

このバッジは、YOLOv5 GitHub ActionsContinuous Integration (CI) テストがすべて正常にパスしていることを示します。これらのCIテストは、トレーニング検証推論エクスポートベンチマークといったさまざまな重要な側面にわたって、YOLOv5 の機能とパフォーマンスを厳密にチェックします。これらのテストは、macOS、Windows、Ubuntu上で、24時間ごとおよび新しいコミットごとに実施され、一貫した信頼性の高い動作を保証します。

📅作成:1年前 ✏️更新:1ヶ月前

コメント