YOLOv7 YOLOv5:リアルタイム検出器の技術的比較
現代のコンピュータビジョンパイプラインを構築する際、適切な物体検出アーキテクチャの選択は、精度、推論速度、リソース利用のバランスを取る上で極めて重要です。本包括的比較では、コンピュータビジョン分野で非常に影響力のある2つのモデル、YOLOv7 Ultralytics YOLOv5検証します。
アーキテクチャ上の差異、パフォーマンス指標、および理想的な導入シナリオを分析することで、開発者や研究者が特定の要件に最適なモデルを選択できるよう支援することを目的としています。
モデルの背景と起源
これらのモデルの起源を理解することは、その設計思想と対象となるユースケースの背景を提供する。
YOLOv5
グレン・ジョッカーとUltralyticsのチームによりリリースされました Ultralytics によってリリースされたYOLOv5 、ネイティブなPyTorch実装を提供することでこの分野にYOLOv5 。 PyTorch 実装を提供し、性能を犠牲にすることなく使いやすさを優先させたことで、この分野に革命をもたらしました。その驚くほど合理化されたエコシステムと信頼性の高いトレーニングダイナミクスにより、瞬く間に業界標準となりました。 ソースコードはYOLOv5 リポジトリで閲覧可能であり、モデルはUltralytics から直接アクセスできます。
YOLOv7
台湾中央研究院情報科学研究所の王千耀(Chien-Yao Wang)、アレクセイ・ボチコフスキー(Alexey Bochkovskiy)、廖宏源(Hong-Yuan Mark Liao)により2022年7月6日に発表。YOLOv7 、拡張効率層集約ネットワーク(E-ELAN)や学習可能な「フリービーの袋」といったアーキテクチャ革新にYOLOv7 、精度における最先端を推進した。 詳細は公式Arxiv論文および YOLOv7 リポジトリを参照のこと。シームレスな統合については、Ultralytics YOLOv7 を確認されたい。
シームレスな実験
これらのモデルはPython に完全に統合されており、コード内のモデル文字列を変更するだけで簡単に切り替えることができます!
アーキテクチャの革新
Ultralytics YOLOv5
YOLOv5 改良版CSPDarknet53バックボーンとパス集約ネットワーク(PANet)ネックを組み合わせたYOLOv5 。この設計は、高速な特徴抽出とメモリ効率のために高度に最適化されています。従来のアーキテクチャや重いトランスフォーマーモデルとは異なり、YOLOv5 トレーニング中にCUDA 大幅に少なく、標準的なコンシューマー向けGPUでより大きなバッチサイズを扱えます。 さらに、Ultralytics は標準的な境界ボックスを超え、画像セグメンテーションや画像分類など多様なタスクを本質的にサポートしています。
YOLOv7
YOLOv7 tensor YOLOv7 、ネットワークが元の勾配経路を破壊することなくより多様な特徴を学習できるようにする、いくつかの構造的再パラメータ化とE-ELANアーキテクチャYOLOv7 。また、トレーニング中の中間監督のための補助ヘッドを実装している。これらの進歩は高い平均精度(mAP)をもたらすが、 ONNX や TensorRT へのエクスポートを、Ultralytics に標準搭載されている合理化されたエクスポートと比較してやや困難にする可能性があります。
パフォーマンス分析
これらのモデルを比較する際、開発者はmAPval、推論速度、計算複雑度(FLOPs)のバランスを考慮する必要があります。下表はCOCO 評価した両アーキテクチャの性能を示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
主なポイント
- 精度上限:YOLOv7xは驚異的な53.1mAPvalという最高総合精度を達成し、検出性能の最大化が主要目標となるシナリオにおいて極めて競争力が高い。
- 高速性と効率性: Ultralytics 効率性の驚異であり、わずか260万パラメータという最小限のメモリ使用量で、超高速な推論レイテンシ(T4TensorRT1.12ミリ秒)を実現します。これにより、制約の厳しいエッジデプロイメントにおいて比類のない選択肢となります。
- 性能バランス: YOLOv5 は優れた性能曲線を提供する。YOLOv5lは理想的な中間点に位置し、YOLOv7lにわずかな精度差で及ばないものの、非常に成熟したデプロイメントパイプラインを備えている。
Ultralyticsエコシステムの利点
モデルのアーキテクチャは方程式の半分に過ぎない。それを取り巻くエコシステムこそが、現実世界での実用性を決定づける。ここにこそ、Ultralytics 発揮される。
使いやすさ: Ultralytics 統一されたPython Ultralytics 。最小限の定型コードでモデルのトレーニング、検証、デプロイが可能で、充実した公式ドキュメントがサポートします。 よく整備されたエコシステム:活発な開発により、継続的な更新、バグ修正、および Weights & Biasesといった最新のトラッキングツールとのシームレスな連携を実現します。 トレーニング効率:最適化されたデータローダーとスマートキャッシュを活用することで、YOLOv5 トレーニング時間をYOLOv5 短縮します。さらに、すぐに使える事前学習済み重みにより、様々なドメインでの転移学習が加速されます。
コード例:効率化されたトレーニング
Ultralytics 、選択するアーキテクチャに関わらず、トレーニングの実行を開始する手順は実質的に同一です。
from ultralytics import YOLO
# Load a pre-trained YOLOv5 model (can easily swap to "yolov7.pt")
model = YOLO("yolov5s.pt")
# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Export the trained model to ONNX format for deployment
success = model.export(format="onnx")
理想的なユースケース
YOLOv7を選択すべき時
- 学術ベンチマーキング:新規技術を十分に検証済みの2022年基準値と比較する必要がある研究者に最適です。
- ハイエンドGPU 処理:高密度mAP 絶対的な最高mAP を達成することがエクスポートの簡便性よりも優先される場合、高性能サーバーハードウェアへのデプロイ時に適用される。
YOLOv5を選択すべき時
- 本番環境へのデプロイ:高い安定性、シンプルなモデルデプロイオプション、幅広いクロスプラットフォーム互換性を必要とする商用アプリケーションに最適です。
- エッジデバイス:小型版(YOLOv5nおよびYOLOv5s)は、スマートフォンや組み込みシステム上で非常に良好に動作します。
- マルチタスク要件:プロジェクトが単なる検出から姿勢推定やセグメンテーションへと進化する必要がある場合、統一されたフレームワークを用いて実現します。
他のアーキテクチャの探求
より新しいバージョンをお探しですか? Ultralytics YOLOv8 または Ultralytics YOLO11 アンカーフリー検出とマルチタスク学習能力のさらなる進歩のために。
次世代:Ultralytics
YOLOv5 YOLOv7 視覚AIの歴史において重要な位置YOLOv7 一方で、その状況は絶えず進化している。2026年1月にリリースUltralytics 、物体検出技術の絶対的な最先端を体現し、あらゆる指標において前世代を凌駕している。
YOLO26はいくつかのパラダイムシフトをもたらす機能を導入します:
- エンドツーエンドNMS:先行バージョンで確立された概念を基盤とし、YOLO26はネイティブにエンドツーエンドを実現。これにより非最大抑制(NMS)後処理が完全に不要となり、レイテンシのボトルネックを解消するとともに、展開ロジックを大幅に簡素化します。
- MuSGDオプティマイザー:Moonshot AIのKimi K2に着想を得たこの革新的なオプティマイザーは、標準的なSGD のSGD ミューオンの加速されたモーメンタムSGD 融合させSGD 高度なLLMトレーニングの革新をコンピュータビジョンに直接導入します。
- CPU :分布焦点損失(DFL)を戦略的に除去することで、YOLO26は最大43%CPU を実現し、エッジおよび低消費電力IoTデバイス展開における圧倒的な優位性を確立しました。
- ProgLoss + STAL:これらの高度な損失関数は、航空画像や精密ロボット工学において極めて重要な小規模物体認識において大幅な改善をもたらす。
- タスク特化型改善点:マスク生成のためのセマンティックセグメンテーション損失、姿勢追跡のための残差対数尤度推定(RLE)、および厄介な向き付きバウンディングボックス(OBB)境界問題を解決するための専用角度損失を特徴としています。
結論
YOLOv5 YOLOv7 どちらもリアルタイム物体検出のための堅牢なソリューションYOLOv7 。YOLOv7 高性能ハードウェア上での純粋な精度においてYOLOv7 有力な選択肢YOLOv7 一方、YOLOv5 速度、効率性、そして世界クラスのエコシステムを卓越したバランスで提供し、究極の開発者向けツールとしてYOLOv5
ただし、将来を見据えたパイプライン構築と、速度・簡便性・最先端の精度を究極的に両立させたい開発者には、Ultralytics への移行を強く推奨します。本ソリューションUltralytics 定評ある使いやすさを継承しつつ、画期的なアーキテクチャ革新を実現しています。