PyTorch HubからYOLOv5をロード中
このガイドでは、PyTorch Hub(https://pytorch.org/hub/ultralytics_yolov5)からYOLOv5をロードする方法について説明します。
始める前に
requirements.txtをPython>=3.8.0環境にインストールします。これには、PyTorch>=1.8が含まれます。モデルとデータセットは、最新のYOLOv5リリースから自動的にダウンロードされます。
pip install -r https://raw.githubusercontent.com/ultralytics/yolov5/master/requirements.txt
ProTip: https://github.com/ultralytics/yolov5をクローンすることは必須ではありません
PyTorch HubでYOLOv5をロードする
簡単な例
この例では、事前学習済みのYOLOv5sモデルをPyTorch Hubからロードします。 model
そして、推論のために画像を渡します。 'yolov5s'
は、最も軽量で高速なYOLOv5モデルです。利用可能なすべてのモデルの詳細については、以下を参照してください。 README.
import torch
# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Image
im = "https://ultralytics.com/images/zidane.jpg"
# Inference
results = model(im)
results.pandas().xyxy[0]
# xmin ymin xmax ymax confidence class name
# 0 749.50 43.50 1148.0 704.5 0.874023 0 person
# 1 433.50 433.50 517.5 714.5 0.687988 27 tie
# 2 114.75 195.75 1095.0 708.0 0.624512 0 person
# 3 986.00 304.00 1028.0 420.0 0.286865 27 tie
詳細な例
この例は以下を示しています バッチ推論 with PIL および OpenCV 画像ソース。 results
〜できる 印刷済み コンソールへ 保存されました 宛先 runs/hub
, 表示 サポートされている環境の画面に表示し、以下のように返します。 tensor(テンソル) または pandas データフレーム。
import cv2
import torch
from PIL import Image
# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Images
for f in "zidane.jpg", "bus.jpg":
torch.hub.download_url_to_file("https://ultralytics.com/images/" + f, f) # download 2 images
im1 = Image.open("zidane.jpg") # PIL image
im2 = cv2.imread("bus.jpg")[..., ::-1] # OpenCV image (BGR to RGB)
# Inference
results = model([im1, im2], size=640) # batch of images
# Results
results.print()
results.save() # or .show()
results.xyxy[0] # im1 predictions (tensor)
results.pandas().xyxy[0] # im1 predictions (pandas)
# xmin ymin xmax ymax confidence class name
# 0 749.50 43.50 1148.0 704.5 0.874023 0 person
# 1 433.50 433.50 517.5 714.5 0.687988 27 tie
# 2 114.75 195.75 1095.0 708.0 0.624512 0 person
# 3 986.00 304.00 1028.0 420.0 0.286865 27 tie
すべての推論オプションについては、YOLOv5を参照してください。 AutoShape()
順伝播 メソッド.
推論設定
YOLOv5 モデルには、信頼度閾値、IoU閾値などのさまざまな推論属性が含まれており、これらは以下によって設定できます。
model.conf = 0.25 # NMS confidence threshold
model.iou = 0.45 # NMS IoU threshold
model.agnostic = False # NMS class-agnostic
model.multi_label = False # NMS multiple labels per box
model.classes = None # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
model.max_det = 1000 # maximum number of detections per image
model.amp = False # Automatic Mixed Precision (AMP) inference
results = model(im, size=320) # custom inference size
デバイス
モデルは、作成後、任意のデバイスに転送できます。
model.cpu() # CPU
model.cuda() # GPU
model.to(device) # i.e. device=torch.device(0)
モデルは、任意の場所で直接作成することもできます。 device
:
model = torch.hub.load("ultralytics/yolov5", "yolov5s", device="cpu") # load on CPU
ProTip: 入力画像は、推論前に正しいモデルデバイスに自動的に転送されます。
出力の抑制
モデルは、以下を使用してサイレントにロードできます。 _verbose=False
:
model = torch.hub.load("ultralytics/yolov5", "yolov5s", _verbose=False) # load silently
入力チャンネル
デフォルトの 3 つではなく、4 つの入力チャネルを持つ事前学習済み YOLOv5s モデルをロードするには:
model = torch.hub.load("ultralytics/yolov5", "yolov5s", channels=4)
この場合、モデルは学習済みの重みで構成されますが、ただし、最初の入力レイヤーは、学習済みの入力レイヤーと同じ形状ではなくなります。入力レイヤーは、ランダムな重みで初期化されたままになります。
クラス数
デフォルトの 80 クラスではなく、10 個の出力クラスを持つ事前学習済み YOLOv5s モデルをロードするには:
model = torch.hub.load("ultralytics/yolov5", "yolov5s", classes=10)
この場合、モデルは学習済みの重みで構成されますが、ただし、出力レイヤーは、学習済みの出力レイヤーと同じ形状ではなくなります。出力レイヤーは、ランダムな重みで初期化されたままになります。
強制リロード
上記の手順で問題が発生した場合は、以下を設定してください。 force_reload=True
既存のキャッシュを破棄し、PyTorch Hubから最新のYOLOv5バージョンを強制的に再ダウンロードすることで改善される場合があります。
model = torch.hub.load("ultralytics/yolov5", "yolov5s", force_reload=True) # force reload
スクリーンショット推論
デスクトップ画面で推論を実行するには:
import torch
from PIL import ImageGrab
# Model
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Image
im = ImageGrab.grab() # take a screenshot
# Inference
results = model(im)
マルチGPU推論
YOLOv5 モデルは、スレッド化された推論により、複数の GPU に並行してロードできます。
import threading
import torch
def run(model, im):
"""Performs inference on an image using a given model and saves the output; model must support `.save()` method."""
results = model(im)
results.save()
# Models
model0 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=0)
model1 = torch.hub.load("ultralytics/yolov5", "yolov5s", device=1)
# Inference
threading.Thread(target=run, args=[model0, "https://ultralytics.com/images/zidane.jpg"], daemon=True).start()
threading.Thread(target=run, args=[model1, "https://ultralytics.com/images/bus.jpg"], daemon=True).start()
学習
推論ではなくトレーニングのために YOLOv5 モデルをロードするには、以下を設定します。 autoshape=False
。(スクラッチからトレーニングするために)ランダムに初期化された重みを持つモデルをロードするには、以下を使用します。 pretrained=False
。この場合、独自のトレーニングスクリプトを提供する必要があります。または、YOLOv5を参照してください。 カスタムデータチュートリアルのトレーニング モデルのトレーニングに使用します。
import torch
model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False) # load pretrained
model = torch.hub.load("ultralytics/yolov5", "yolov5s", autoshape=False, pretrained=False) # load scratch
Base64の結果
APIサービスで使用するため。詳細については、Flask REST APIの例を参照してください。
import base64
from io import BytesIO
from PIL import Image
results = model(im) # inference
results.ims # array of original images (as np array) passed to model for inference
results.render() # updates results.ims with boxes and labels
for im in results.ims:
buffered = BytesIO()
im_base64 = Image.fromarray(im)
im_base64.save(buffered, format="JPEG")
print(base64.b64encode(buffered.getvalue()).decode("utf-8")) # base64 encoded image with results
切り抜かれた結果
結果は、検出された切り抜きとして返され、保存できます。
results = model(im) # inference
crops = results.crop(save=True) # cropped detections dictionary
Pandasの結果
結果はPandas DataFramesとして返すことができます。
results = model(im) # inference
results.pandas().xyxy[0] # Pandas DataFrame
Pandasの出力(クリックで展開)
print(results.pandas().xyxy[0])
# xmin ymin xmax ymax confidence class name
# 0 749.50 43.50 1148.0 704.5 0.874023 0 person
# 1 433.50 433.50 517.5 714.5 0.687988 27 tie
# 2 114.75 195.75 1095.0 708.0 0.624512 0 person
# 3 986.00 304.00 1028.0 420.0 0.286865 27 tie
ソートされた結果
結果は列でソートできます。例えば、ナンバープレートの数字検出を左から右(x軸)にソートするなど。
results = model(im) # inference
results.pandas().xyxy[0].sort_values("xmin") # sorted left-right
ボックスで切り抜かれた結果
結果は、検出された切り抜きとして返され、保存できます。
results = model(im) # inference
crops = results.crop(save=True) # cropped detections dictionary
JSONの結果
結果は、変換されるとJSON形式で返すことができます。 .pandas()
を使用してデータフレームを .to_json()
メソッド。JSON形式は、を使用して変更できます。 orient
引数。pandasを参照してください。 .to_json()
ドキュメンテーション 詳細について。
results = model(ims) # inference
results.pandas().xyxy[0].to_json(orient="records") # JSON img1 predictions
JSON出力(クリックして展開)
[
{
"xmin": 749.5,
"ymin": 43.5,
"xmax": 1148.0,
"ymax": 704.5,
"confidence": 0.8740234375,
"class": 0,
"name": "person"
},
{
"xmin": 433.5,
"ymin": 433.5,
"xmax": 517.5,
"ymax": 714.5,
"confidence": 0.6879882812,
"class": 27,
"name": "tie"
},
{
"xmin": 115.25,
"ymin": 195.75,
"xmax": 1096.0,
"ymax": 708.0,
"confidence": 0.6254882812,
"class": 0,
"name": "person"
},
{
"xmin": 986.0,
"ymin": 304.0,
"xmax": 1028.0,
"ymax": 420.0,
"confidence": 0.2873535156,
"class": 27,
"name": "tie"
}
]
カスタムモデル
この例では、カスタムの20クラスをロードします。 VOC-トレーニング済みのYOLOv5sモデル 'best.pt'
PyTorch Hubを使用します。
import torch
model = torch.hub.load("ultralytics/yolov5", "custom", path="path/to/best.pt") # local model
model = torch.hub.load("path/to/yolov5", "custom", path="path/to/best.pt", source="local") # local repo
TensorRT、ONNX、およびOpenVINOモデル
PyTorch Hub は、カスタム学習モデルを含むほとんどの YOLOv5 エクスポート形式での推論をサポートしています。モデルのエクスポートの詳細については、TFLite、ONNX、CoreML、TensorRT エクスポートのチュートリアルを参照してください。
ProTip: TensorRTは、GPUベンチマークでPyTorchより最大2〜5倍高速になる可能性があります ProTip: ONNXとOpenVINOは、CPUベンチマークでPyTorchより最大2〜3倍高速になる可能性があります
import torch
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.pt") # PyTorch
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.torchscript") # TorchScript
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.onnx") # ONNX
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_openvino_model/") # OpenVINO
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.engine") # TensorRT
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.mlmodel") # CoreML (macOS-only)
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s.tflite") # TFLite
model = torch.hub.load("ultralytics/yolov5", "custom", path="yolov5s_paddle_model/") # PaddlePaddle
サポートされている環境
Ultralyticsは、CUDA、CUDNN、Python、PyTorchなどの必須依存関係がプリインストールされた、すぐに使用できるさまざまな環境を提供し、プロジェクトをすぐに開始できます。
- 無料の GPU Notebooks:
- Google Cloud:GCPクイックスタートガイド
- Amazon: AWS クイックスタートガイド
- Azure: AzureML クイックスタートガイド
- Docker: Dockerクイックスタートガイド
プロジェクトのステータス
このバッジは、すべてのYOLOv5 GitHub Actions継続的インテグレーション(CI)テストが正常に合格していることを示します。これらのCIテストでは、トレーニング、検証、推論、エクスポート、ベンチマークなど、さまざまな重要な側面についてYOLOv5の機能と性能を厳密にチェックします。これらのテストは、macOS、Windows、Ubuntuでの一貫した信頼性の高い動作を保証し、24時間ごと、および新しいコミットごとに行われます。