コンテンツへスキップ

YOLOv7:トレーニング可能なバッグ・オブ・フリービー

YOLOv7は、5 FPSから160 FPSの範囲において、すべての既知のオブジェクト検出器を速度と精度の両方で凌駕する最先端のリアルタイムオブジェクト検出器です。YOLOv7 は、GPU V100 上で 30 FPS 以上のリアルタイム物体検出器として、既知のすべてのリアルタイム物体検出器の中で最高の精度(AP 56.8%)を誇ります。さらに、YOLOv7は、YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5 などの他のオブジェクト検出器よりも速度と精度で優れています。このモデルは、他のデータセットや事前に訓練された重みを使用することなく、MS COCOデータセットでゼロから訓練されています。YOLOv7のソースコードはGitHubで公開されている。

YOLOv7とSOTA天体検出器の比較 最先端の物体検出器の比較。 表2の結果から、提案手法が総合的に最も速度と精度のトレードオフが優れていることがわかる。YOLOv7-tiny-SiLUとYOLOv5-N (r6.1)を比較すると、我々の手法はAPにおいて127fps速く、10.7%正確である。さらに、YOLOv7はフレームレート161fpsで51.4%のAPを持つが、同じAPを持つPPYOLOE-Lのフレームレートは78fpsしかない。パラメータ使用量では、YOLOv7はPPYOLOE-Lより41%少ない。推論速度114fpsのYOLOv7-Xを、推論速度99fpsのYOLOv5-L (r6.1)と比較すると、YOLOv7-XはAPを3.9%改善できる。YOLOv7-Xを同規模のYOLOv5-X (r6.1)と比較すると、YOLOv7-Xの推論速度は31fps速い。また、パラメータと計算量の点で、YOLOv7-XはYOLOv5-X (r6.1)と比較して、パラメータを22%、計算量を8%削減するが、APは2.2%改善する(ソース).

概要

リアルタイム物体検出は、多オブジェクト追跡、自律走行、ロボット工学、医療画像解析など、多くのコンピュータビジョンシステムにおいて重要な要素である。近年、リアルタイム物体検出の開発は、効率的なアーキテクチャの設計と、様々なCPU、GPU、およびニューラル・プロセッシング・ユニット(NPU)の推論速度の向上に焦点を当てています。YOLOv7は、エッジからクラウドまで、モバイルGPUとGPUデバイスの両方をサポートしています。

YOLOv7は、アーキテクチャの最適化に焦点を当てた従来のリアルタイム物体検出器とは異なり、学習プロセスの最適化に焦点を当てています。これには、推論コストを増加させることなく物体検出の精度を向上させるように設計されたモジュールと最適化手法が含まれ、「訓練可能なフリービーバッグ(trainable bag-of-freebies)」として知られる概念である。

主な特徴

YOLOv7にはいくつかの重要な特徴がある:

  1. モデルの再パラメータ化YOLOv7は、計画的な再パラメータ化モデルを提案する。これは、勾配伝搬経路の概念を持つ異なるネットワークの層に適用可能な戦略である。

  2. 動的なラベルの割り当て:複数の出力層を持つモデルのトレーニングは、新たな問題を提示する:「異なる枝の出力に対して、どのように動的なターゲットを割り当てるか?この問題を解決するために、YOLOv7は、粗から細へのリードガイドラベル割り当てと呼ばれる新しいラベル割り当て方法を導入している。

  3. 拡張と複合スケーリング:YOLOv7は、パラメータと計算を効果的に利用できるリアルタイム物体検出のための「拡張」と「複合スケーリング」手法を提案している。

  4. 効率:YOLOv7が提案する方法は、最先端のリアルタイム物体検出器の約40%のパラメータと50%の計算量を効果的に削減することができ、より速い推論速度とより高い検出精度を有する。

使用例

本稿執筆時点では、Ultralytics 、現在YOLOv7モデルをサポートしていない。従って、YOLOv7の使用に興味があるユーザーは、YOLOv7のGitHubレポジトリを直接参照して、インストールと使用方法を確認する必要がある。

ここでは、YOLOv7を使用するための典型的な手順を簡単に説明します:

  1. YOLOv7のGitHubリポジトリhttps://github.com/WongKinYiu/yolov7。

  2. READMEファイルに記載されている指示に従ってインストールしてください。これには通常、リポジトリのクローン、必要な依存関係のインストール、必要な環境変数の設定が含まれます。

  3. インストールが完了したら、リポジトリで提供されている使用方法に従ってモデルをトレーニングし、使用することができます。これは通常、データセットの準備、モデルパラメータの設定、モデルの学習、学習済みモデルを使った物体検出を含みます。

具体的な手順は、あなたの特定のユースケースやYOLOv7リポジトリの現在の状態によって異なる可能性があることに注意してください。そのため、YOLOv7のGitHubリポジトリで提供されている手順を直接参照することを強くお勧めします。

YOLOv7のサポートが実装され次第、Ultralytics 。

引用と謝辞

YOLOv7作者のリアルタイム物体検出分野における多大な貢献に感謝したい:

@article{wang2022yolov7,
  title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

オリジナルのYOLOv7論文はarXivに掲載されている。著者らは彼らの研究を公開し、コードベースはGitHubでアクセスできる。我々は、この分野を発展させ、より広いコミュニティが彼らの研究にアクセスできるようにした彼らの努力に感謝している。



作成日:2023-11-12 更新日:2024-01-07
作成者:glenn-jocher(5),sergiuwaxmann(1)

コメント