YOLOv7 YOLOv5:リアルタイム検出器の技術的比較
現代のコンピュータビジョンパイプラインを構築する際、適切な物体検出アーキテクチャの選択は、精度、推論速度、リソース利用のバランスを取る上で極めて重要です。本包括的比較では、コンピュータビジョン分野で非常に影響力のある2つのモデル、YOLOv7 Ultralytics YOLOv5検証します。
これらのモデルのアーキテクチャの違い、パフォーマンス指標、理想的なデプロイメントシナリオを分析することで、開発者や研究者がそれぞれの要件に最適なモデルを選択できるよう支援することを目指しています。
モデルの背景と起源
これらのモデルの起源を理解することは、その設計思想と対象となるユースケースの背景を提供する。
YOLOv5
グレン・ジョッカーとUltralyticsのチームによりリリースされました Ultralytics によってリリースされたYOLOv5 、ネイティブなPyTorch実装を提供することでこの分野にYOLOv5 。 PyTorch 実装を提供し、性能を犠牲にすることなく使いやすさを優先させたことで、この分野に革命をもたらしました。その驚くほど合理化されたエコシステムと信頼性の高いトレーニングダイナミクスにより、瞬く間に業界標準となりました。 ソースコードはYOLOv5 リポジトリで閲覧可能であり、モデルはUltralytics から直接アクセスできます。
YOLOv7
台湾中央研究院情報科学研究所の王千耀(Chien-Yao Wang)、アレクセイ・ボチコフスキー(Alexey Bochkovskiy)、廖宏源(Hong-Yuan Mark Liao)により2022年7月6日に発表。YOLOv7 、拡張効率層集約ネットワーク(E-ELAN)や学習可能な「フリービーの袋」といったアーキテクチャ革新にYOLOv7 、精度における最先端を推進した。 詳細は公式Arxiv論文および YOLOv7 リポジトリを参照のこと。シームレスな統合については、Ultralytics YOLOv7 を確認されたい。
シームレスな実験
これら両方のモデルはUltralytics pythonパッケージに完全に統合されており、コード内のモデル文字列を変更するだけで、それらを切り替えることができます!
アーキテクチャの革新
Ultralytics YOLOv5
YOLOv5 改良版CSPDarknet53バックボーンとパス集約ネットワーク(PANet)ネックを組み合わせたYOLOv5 。この設計は、高速な特徴抽出とメモリ効率のために高度に最適化されています。従来のアーキテクチャや重いトランスフォーマーモデルとは異なり、YOLOv5 トレーニング中にCUDA 大幅に少なく、標準的なコンシューマー向けGPUでより大きなバッチサイズを扱えます。 さらに、Ultralytics は標準的な境界ボックスを超え、画像セグメンテーションや画像分類など多様なタスクを本質的にサポートしています。
YOLOv7
YOLOv7 tensor YOLOv7 、ネットワークが元の勾配経路を破壊することなくより多様な特徴を学習できるようにする、いくつかの構造的再パラメータ化とE-ELANアーキテクチャYOLOv7 。また、トレーニング中の中間監督のための補助ヘッドを実装している。これらの進歩は高い平均精度(mAP)をもたらすが、 ONNX や TensorRT へのエクスポートを、Ultralytics に標準搭載されている合理化されたエクスポートと比較してやや困難にする可能性があります。
パフォーマンス分析
これらのモデルを比較する際、開発者はmAPval、推論速度、計算複雑度(FLOPs)のバランスを考慮する必要があります。下表はCOCO 評価した両アーキテクチャの性能を示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
主なポイント
- 精度の上限: YOLOv7xは、驚異的な53.1 mAPvalで最高の全体精度を達成しており、detect性能の最大化が主要な目標となるシナリオにおいて非常に競争力があります。
- 速度と効率: Ultralytics YOLOv5nは効率性の驚異であり、超高速の推論レイテンシ(T4 TensorRTで1.12ms)をわずか2.6Mパラメータという小さなメモリフットプリントで提供します。これにより、非常に制約の厳しいエッジデプロイメントにとって比類のない選択肢となります。
- パフォーマンスバランス: YOLOv5シリーズは、優れたモデルのグラデーションを提供します。YOLOv5lは、YOLOv7lにわずかな精度差で劣るものの、非常に成熟したデプロイメントパイプラインを提供する素晴らしい中間点を提供します。
Ultralyticsエコシステムの利点
モデルのアーキテクチャは方程式の半分に過ぎません。それを取り巻くエコシステムが、その実世界での実現可能性を決定します。ここにUltralyticsモデルが真に輝く点があります。
使いやすさ: Ultralyticsは、統一された非常に直感的なPython APIを提供します。豊富な公式ドキュメントに裏打ちされ、最小限のボイラープレートでモデルをトレーニング、検証、デプロイできます。 よく維持されたエコシステム: 活発な開発により、継続的なアップデート、バグ修正、およびWeights & Biasesのような最新の追跡ツールとのシームレスな統合が保証されます。 トレーニング効率: 最適化されたデータローダーとスマートキャッシングを利用することで、YOLOv5はトレーニング時間を大幅に短縮します。さらに、すぐに使用できる事前学習済み重みは、さまざまなドメインでの転移学習を加速させます。
コード例: 効率化されたトレーニング
Ultralytics 、選択するアーキテクチャに関わらず、トレーニングの実行を開始する手順は実質的に同一です。
from ultralytics import YOLO
# Load a pre-trained YOLOv5 model (can easily swap to "yolov7.pt")
model = YOLO("yolov5s.pt")
# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Export the trained model to ONNX format for deployment
success = model.export(format="onnx")
理想的なユースケース
YOLOv7を選択すべき時
- Academic Benchmarking: よく文書化された2022年のベースラインと新しい技術を比較する必要がある研究者に最適です。
- ハイエンドGPUクラウド処理: 密度の高いシーンで絶対的に最高のmAPを達成することがエクスポートの簡素さよりも重要となる、強力なサーバーハードウェアに展開する場合。
YOLOv5を選択すべき時
- 製品展開: 高い安定性、シンプルなモデルデプロイオプション、幅広いクロスプラットフォーム互換性が求められる商用アプリケーションに最適です。
- エッジデバイス: 小型バリアント(YOLOv5nおよびYOLOv5s)は、携帯電話や組み込みシステムで非常にうまく動作します。
- マルチタスク要件: プロジェクトが単純なdetectから姿勢推定またはsegmentへと統合フレームワークを使用して進化する必要がある場合。
その他のアーキテクチャの探索
より新しいバージョンをお探しですか? Ultralytics YOLOv8 または Ultralytics YOLO11 アンカーフリー検出とマルチタスク学習能力のさらなる進歩のために。
次世代:Ultralytics
YOLOv5 YOLOv7 視覚AIの歴史において重要な位置YOLOv7 一方で、その状況は絶えず進化している。2026年1月にリリースUltralytics 、物体検出技術の絶対的な最先端を体現し、あらゆる指標において前世代を凌駕している。
YOLO26はいくつかのパラダイムシフトをもたらす機能を導入します:
- エンドツーエンドNMSフリー設計: 以前のイテレーションで開拓された概念に基づいて構築されたYOLO26は、ネイティブにエンドツーエンドです。これにより、Non-Maximum Suppression (NMS)の後処理が完全に排除され、レイテンシのボトルネックが解消され、デプロイメントロジックが劇的に簡素化されます。
- MuSGDオプティマイザ: Moonshot AIのKimi K2に着想を得たこの革新的なオプティマイザは、標準SGDの安定性とMuonの加速された運動量を融合させ、高度なLLMトレーニングの革新をコンピュータビジョンに直接もたらします。
- CPU速度の向上: Distribution Focal Loss (DFL)を戦略的に排除することで、YOLO26は最大43%高速なCPU推論を実現し、エッジおよび低電力IoTデバイスのデプロイメントにおいて揺るぎない王者となります。
- ProgLoss + STAL: これらの高度な損失関数は、小さなオブジェクトの認識において大幅な改善をもたらし、航空画像や精密ロボット工学にとって不可欠です。
- タスク固有の改善: マスク生成のためのSemantic segmentation loss、ポーズ追跡のためのResidual Log-Likelihood Estimation (RLE)、そして厄介なOriented Bounding Box (OBB)境界問題を解決するための特化した角度損失を特徴とします。
結論
YOLOv5とYOLOv7は両方ともリアルタイム物体検出のための堅牢なソリューションを提供します。YOLOv7は高計算ハードウェアでの生精度において強力な選択肢であり続けていますが、YOLOv5は、速度、効率、そして世界クラスのエコシステムの卓越したバランスを提供する、究極の開発者向けツールとして際立っています。
ただし、将来を見据えたパイプライン構築と、速度・簡便性・最先端の精度を究極的に両立させたい開発者には、Ultralytics への移行を強く推奨します。本ソリューションUltralytics 定評ある使いやすさを継承しつつ、画期的なアーキテクチャ革新を実現しています。