YOLOv5 クイックスタート
Ultralytics YOLOv5リアルタイム物体検出のダイナミックな領域への旅に出かけましょう!このガイドは、YOLOv5マスターを目指すAI愛好家や専門家のための包括的な出発点として作成されています。初期セットアップから高度なトレーニングテクニックまで、このガイドでカバーできます。このガイドが終わるころには、最先端のディープラーニング手法を使って、自信を持ってYOLOv5 プロジェクトに実装するための知識が身についていることでしょう。YOLOv5エンジンを始動させましょう!
インストール
YOLOv5 リポジトリをクローンし、環境を構築することで、立ち上げの準備をする。これにより、必要な要件がすべてインストールされていることを確認する。次のものがあることを確認してください Python.8.0と PyTorch.8があることを確認してください。これらの基礎ツールはYOLOv5 効果的に実行するために非常に重要です。
git clone https://github.com/ultralytics/yolov5 # clone repository
cd yolov5
pip install -r requirements.txt # install dependencies
PyTorch ハブを使った推論
YOLOv5 PyTorch Hub推論のシンプルさを体験してください。モデルは最新のYOLOv5 リリースからシームレスにダウンロードされます。この方法は PyTorchのパワーを活用することで、モデルのロードと実行が簡単になり、予測を得るのが簡単になります。
import torch
# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s") # Can be 'yolov5n' - 'yolov5x6', or 'custom'
# Inference on images
img = "https://ultralytics.com/images/zidane.jpg" # Can be a file, Path, PIL, OpenCV, numpy, or list of images
# Run inference
results = model(img)
# Display results
results.print() # Other options: .show(), .save(), .crop(), .pandas(), etc. Explore these in the Predict mode documentation.
detect.pyによる推論
ハーネス detect.py
多用途に 推論 様々なソースから自動的に モデル 最新情報からYOLOv5 リリース を実行し、結果を簡単に保存することができる。このスクリプトは、コマンドラインでの使用や、YOLOv5 大規模なシステムに統合するのに理想的で、画像、ビデオ、ディレクトリ、ウェブカメラ、さらには以下のような入力をサポートする。 ライブストリーム.
python detect.py --weights yolov5s.pt --source 0 # webcam
python detect.py --weights yolov5s.pt --source image.jpg # image
python detect.py --weights yolov5s.pt --source video.mp4 # video
python detect.py --weights yolov5s.pt --source screen # screenshot
python detect.py --weights yolov5s.pt --source path/ # directory
python detect.py --weights yolov5s.pt --source list.txt # list of images
python detect.py --weights yolov5s.pt --source list.streams # list of streams
python detect.py --weights yolov5s.pt --source 'path/*.jpg' # glob pattern
python detect.py --weights yolov5s.pt --source 'https://youtu.be/LNwODJXcvt4' # YouTube video
python detect.py --weights yolov5s.pt --source 'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream
トレーニング
を複製する。YOLOv5 COCOデータセット ベンチマークは トレーニング方法 の下にある。必要な モデル そして データセット (のような coco128.yaml
またはフル coco.yaml
)は、最新のYOLOv5直接取り出している。 リリース.V100でのYOLOv5n/s/m/l/xのトレーニング GPU 通常、それぞれ1/2/4/6/8日かかるはずである。 GPU GPUトレーニング のセットアップを高速化)。可能な限り高い --batch-size
または --batch-size -1
のためにYOLOv5 オートバッチ この機能は、自動的に最適な バッチサイズ.以下のバッチサイズはV100-16GB GPUに最適です。当社の コンフィギュレーションガイド モデル設定ファイル (*.yaml
).
# Train YOLOv5n on COCO128 for 3 epochs
python train.py --data coco128.yaml --epochs 3 --weights yolov5n.pt --batch-size 128
# Train YOLOv5s on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5s.yaml --batch-size 64
# Train YOLOv5m on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5m.yaml --batch-size 40
# Train YOLOv5l on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5l.yaml --batch-size 24
# Train YOLOv5x on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5x.yaml --batch-size 16
結論として、YOLOv5 5は物体検出のための最先端のツールであるだけでなく、視覚的理解を通じて世界との関わり方を変える機械学習の力を証明するものでもある。このガイドを読み進め、プロジェクトにYOLOv5 適用し始めたら、コンピュータ・ビジョンで驚くべき偉業を達成できる技術革命の最前線にいることを忘れないでください。さらなる洞察やビジョナリー仲間からのサポートが必要な場合は、開発者や研究者の盛んなコミュニティがあるGitHubリポジトリにご招待します。データセット管理やモデルトレーニングをコードなしで行うためのUltralytics HUBのようなリソースを探したり、実際のアプリケーションやインスピレーションを得るためのソリューションページをご覧ください。探求を続け、革新を続け、YOLOv55の驚異をお楽しみください。ハッピー・ディテクション🌠🔍