PyTorch ハブ
このガイドでは、YOLOv5 📚PyTorch https://pytorch.org/hub/ultralytics_yolov5.から 🚀をロードする方法を説明します。
始める前に
requirements.txtをPython>=3.8.0環境にインストールする。 PyTorch>=1.8.モデルとデータセットは、最新のYOLOv5 リリースから自動的にダウンロードされます。
💡 ProTip: クローン作成https://github.com/ultralytics/yolov5 は必要 ありません😃。
負荷YOLOv5 PyTorch ハブ付き
簡単な例
この例では、PyTorch Hub から事前に学習された YOLOv5s モデルを次のようにロードします。 model
と推論用の画像を渡す。 'yolov5s'
は最軽量・最速のYOLOv5 。全モデルの詳細については README.
import torch
# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')
# Image
im = 'https://ultralytics.com/images/zidane.jpg'
# Inference
results = model(im)
results.pandas().xyxy[0]
# xmin ymin xmax ymax confidence class name
# 0 749.50 43.50 1148.0 704.5 0.874023 0 person
# 1 433.50 433.50 517.5 714.5 0.687988 27 tie
# 2 114.75 195.75 1095.0 708.0 0.624512 0 person
# 3 986.00 304.00 1028.0 420.0 0.286865 27 tie
詳細例
この例では バッチ推論 と ピル そして オープンCV 画像ソース results
は可能です。 プリント をコンソールに置く、 セーブ への runs/hub
, 見せた として返される。 テンソル または パンダ データフレーム。
import cv2
import torch
from PIL import Image
# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')
# Images
for f in 'zidane.jpg', 'bus.jpg':
torch.hub.download_url_to_file('https://ultralytics.com/images/' + f, f) # download 2 images
im1 = Image.open('zidane.jpg') # PIL image
im2 = cv2.imread('bus.jpg')[..., ::-1] # OpenCV image (BGR to RGB)
# Inference
results = model([im1, im2], size=640) # batch of images
# Results
results.print()
results.save() # or .show()
results.xyxy[0] # im1 predictions (tensor)
results.pandas().xyxy[0] # im1 predictions (pandas)
# xmin ymin xmax ymax confidence class name
# 0 749.50 43.50 1148.0 704.5 0.874023 0 person
# 1 433.50 433.50 517.5 714.5 0.687988 27 tie
# 2 114.75 195.75 1095.0 708.0 0.624512 0 person
# 3 986.00 304.00 1028.0 420.0 0.286865 27 tie
すべての推論オプションについてはYOLOv5 AutoShape()
前方 方法.
推論設定
YOLOv5 モデルには、信頼度しきい値、IoUしきい値など、さまざまな推論属性が含まれている:
model.conf = 0.25 # NMS confidence threshold
iou = 0.45 # NMS IoU threshold
agnostic = False # NMS class-agnostic
multi_label = False # NMS multiple labels per box
classes = None # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
max_det = 1000 # maximum number of detections per image
amp = False # Automatic Mixed Precision (AMP) inference
results = model(im, size=320) # custom inference size
装置
モデルは作成後、任意のデバイスに転送することができます:
モデルは device
:
💡 ヒント:入力画像は推論の前に自動的に正しいモデルデバイスに転送されます。
サイレンス出力
モデルは _verbose=False
:
入力チャンネル
デフォルトの3入力チャンネルではなく、4入力チャンネルで事前学習されたYOLOv5sモデルをロードする:
この場合、モデルは一番最初の入力層を除いて、事前学習された重みで構成され、事前学習された入力層と同じ形ではなくなります。入力層はランダムな重みで初期化されたままである。
クラス数
デフォルトの80の出力クラスではなく、10の出力クラスで事前学習されたYOLOv5sモデルをロードする:
この場合、出力層以外は事前学習された重みで構成され、事前学習された出力層と同じ形ではなくなります。出力層はランダムな重みで初期化されたままである。
強制リロード
上記の手順で問題が発生した場合は、次のように設定します。 force_reload=True
既存のキャッシュを破棄し、PyTorch Hubから最新のYOLOv5 バージョンを強制的にダウンロードすることで解決する可能性があります。
スクリーンショットの推論
デスクトップ画面で推論を実行するには
import torch
from PIL import ImageGrab
# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')
# Image
im = ImageGrab.grab() # take a screenshot
# Inference
results = model(im)
マルチGPU推論
YOLOv5 モデルは、スレッド推論で複数のGPUに並列にロードできる:
import torch
import threading
def run(model, im):
results = model(im)
results.save()
# Models
model0 = torch.hub.load('ultralytics/yolov5', 'yolov5s', device=0)
model1 = torch.hub.load('ultralytics/yolov5', 'yolov5s', device=1)
# Inference
threading.Thread(target=run, args=[model0, 'https://ultralytics.com/images/zidane.jpg'], daemon=True).start()
threading.Thread(target=run, args=[model1, 'https://ultralytics.com/images/bus.jpg'], daemon=True).start()
トレーニング
推論ではなくトレーニングのためにYOLOv5 モデルをロードするには、次のように設定する。 autoshape=False
.ランダムに初期化された重みを持つモデルをロードするには(ゼロから訓練するには)、次のようにします。 pretrained=False
.この場合、独自のトレーニングスクリプトをご用意いただく必要があります。またはYOLOv5 カスタム・データ・チュートリアル をモデルトレーニングに使用する。
import torch
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', autoshape=False) # load pretrained
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', autoshape=False, pretrained=False) # load scratch
Base64の結果
APIサービスで使用する。詳細は https://github.com/ultralytics/yolov5/pull/2291 およびFlask REST API の例を参照してください。
results = model(im) # inference
results.ims # array of original images (as np array) passed to model for inference
results.render() # updates results.ims with boxes and labels
for im in results.ims:
buffered = BytesIO()
im_base64 = Image.fromarray(im)
im_base64.save(buffered, format="JPEG")
print(base64.b64encode(buffered.getvalue()).decode('utf-8')) # base64 encoded image with results
トリミング結果
結果は検出作物として返され、保存される:
パンダの結果
結果はPandas DataFramesとして返すことができます:
パンダの出力(クリックで拡大)
ソート結果
結果は列ごとに並べ替えることができる。つまり、ナンバープレートの数字検出を左から右に並べ替えることができる(X軸):
箱詰めされた結果
結果は検出作物として返され、保存される:
JSONの結果
に変換すると、JSON形式で結果を返すことができます。 .pandas()
データフレームを使用する .to_json()
メソッドを使用します。JSONフォーマットは orient
引数を参照。パンダを参照。 .to_json()
ドキュメンテーション 詳細はこちら。
results = model(ims) # inference
results.pandas().xyxy[0].to_json(orient="records") # JSON img1 predictions
JSON出力(クリックで展開)
[
{
"xmin": 749.5,
"ymin": 43.5,
"xmax": 1148.0,
"ymax": 704.5,
"confidence": 0.8740234375,
"class": 0,
"name": "person"
},
{
"xmin": 433.5,
"ymin": 433.5,
"xmax": 517.5,
"ymax": 714.5,
"confidence": 0.6879882812,
"class": 27,
"name": "tie"
},
{
"xmin": 115.25,
"ymin": 195.75,
"xmax": 1096.0,
"ymax": 708.0,
"confidence": 0.6254882812,
"class": 0,
"name": "person"
},
{
"xmin": 986.0,
"ymin": 304.0,
"xmax": 1028.0,
"ymax": 420.0,
"confidence": 0.2873535156,
"class": 27,
"name": "tie"
}
]
カスタムモデル
この例では、カスタム 20 クラスをロードします。 VOC-訓練されたYOLOv5sモデル 'best.pt'
PyTorch ハブ付き。
import torch
model = torch.hub.load('ultralytics/yolov5', 'custom', path='path/to/best.pt') # local model
model = torch.hub.load('path/to/yolov5', 'custom', path='path/to/best.pt', source='local') # local repo
TensorRT ONNX および モデルOpenVINO
PyTorch Hubは、カスタム学習済みモデルを含む、ほとんどのYOLOv5 エクスポート形式での推論をサポートしています。モデルのエクスポートの詳細については、TFLite,ONNX,CoreML,TensorRT エクスポートチュートリアルを参照してください。
💡 プロヒント: TensorRTでPyTorch より最大2~5倍速いかもしれません。 GPUベンチマーク 💡 ProTip: ONNXそして OpenVINOはPyTorch より最大2-3倍速いかもしれません。 CPUベンチマーク
import torch
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.pt') # PyTorch
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.torchscript') # TorchScript
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.onnx') # ONNX
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s_openvino_model/') # OpenVINO
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.engine') # TensorRT
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.mlmodel') # CoreML (macOS-only)
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.tflite') # TFLite
model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s_paddle_model/') # PaddlePaddle
対応環境
Ultralytics は、CUDAや CUDNNといった必要不可欠な依存関係がプリインストールされた、すぐに使えるさまざまな環境を提供します、 Pythonそして PyTorchなどの不可欠な依存関係がプリインストールされています。
- 無料GPUノートブック:
- グーグル・クラウド GCPクイックスタートガイド
- アマゾン AWSクイックスタートガイド
- Azure:AzureMLクイックスタートガイド
- ドッカー: Dockerクイックスタートガイド
プロジェクト状況
このバッジは、YOLOv5 GitHub ActionsContinuous Integration (CI) テストがすべて正常にパスしていることを示します。これらのCIテストは、トレーニング、検証、推論、エクスポート、ベンチマークといったさまざまな重要な側面にわたって、YOLOv5 の機能とパフォーマンスを厳密にチェックします。これらのテストは、macOS、Windows、Ubuntu上で、24時間ごとおよび新しいコミットごとに実施され、一貫した信頼性の高い動作を保証します。