コンテンツにスキップ

YOLOv6.0 対YOLOv7:リアルタイム物体検出器の技術的分析

コンピュータビジョンアプリケーションに適した物体検出モデルを選択するには、速度、精度、アーキテクチャの微妙な差異といった複雑な要素を慎重に検討する必要があります。この進化における二つの重要なマイルストーンYOLOv6.YOLOv6とYOLOv7であり、いずれもリリース時にリアルタイム推論の限界を押し広げました。本比較では、両モデルのアーキテクチャの違い、性能指標、最適な導入シナリオを包括的に検証し、開発者が適切な判断を下せるよう支援します。

パフォーマンスの概要

以下の表は、両モデルの比較可能なバリエーションの性能指標をまとめたものです。主要な数値は、特定の構成において一方のモデルが他方に対して優位性を持つ可能性を示すものです。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

YOLOv6.0: 産業レベルの効率性

YOLOv6.YOLOv6(通称「YOLOv6 .0」)は、YOLOv6 (Meituan)YOLOv6 である。2023年1月にリリースされたこのバージョンは、GPU 重要な産業用途に対応するため、アーキテクチャの「再構築」に重点を置いた。

YOLOv6-3.0の詳細:

YOLOv6について詳しくはこちら

アーキテクチャの革新

YOLOv6.YOLOv6、NVIDIA GPUなどのハードウェアアクセラレータ上で効率を最大化するために設計された、いくつかの重要な強化が導入されています:

  1. 双方向連結(BiC):このモジュールは、ネットワークの異なるスケール間での情報フローを促進することで特徴融合を改善し、様々な距離にある物体の検出能力を高めます。
  2. アンカー補助学習(AAT):モデル推論はアンカーフリーのまま維持しつつ、YOLOv6.YOLOv6学習中に補助的なアンカーベースの分岐を採用する。このハイブリッド戦略は収束を安定化させ、推論速度に影響を与えずに最終精度を向上させる。
  3. 再パラメータ化: RepVGGスタイルのブロックを多用し、推論時に複雑な多枝構造を単一経路畳み込みへ簡素化する。GPU 上で大幅な速度向上が実現される。

理想的なユースケース

特定の最適化により、YOLOv6.YOLOv6以下の点で優れています:

  • 製造品質管理:スループット(FPS)が主要制約となる組立ラインにおける高速欠陥検出。
  • 物流と仕分け: 自動化された機械学習パイプラインを活用した、高ボリューム流通センターにおける荷物の迅速な識別。
  • ビデオ分析:セキュリティや小売業界の知見を得るため、サーバーグレードのGPU上で複数のビデオストリームを同時に処理する。

YOLOv7: 「Bag-of-Freebies」の高性能モデル

YOLOv7 2022年7月にリリースされ、瞬く間に最先端の物体検出器としての地位を確立した。著者らは、パラメータ数を大幅に増加させることなく学習効率と推論精度を向上させるアーキテクチャ改革に焦点を当て、これらの技術を「trainable bag-of-freebies」と命名した。

YOLOv7の詳細:

YOLOv7について詳しくはこちら

アーキテクチャの革新

YOLOv7 、ニューラルネットワークが学習し勾配情報を伝播する方法を洗練させるYOLOv7 :

  1. E-ELAN(拡張効率的層集合ネットワーク):この構造は最短および最長の勾配経路を制御し、深層ネットワークで頻繁に発生する勾配消失問題なしに、ネットワークがより多様な特徴を学習できるようにする。
  2. モデルスケーリング: YOLOv7 連結ベースのモデル向けに深度と幅を同時に変更する複合スケーリング手法をYOLOv7 、異なるモデルサイズ(TinyからE6Eまで)にわたって最適なアーキテクチャを確保する。
  3. 計画的再パラメータ化: YOLOv6を用いるが、どのモジュールを簡素化すべきかを決定するために厳密に計画された戦略を適用し、残差接続と単純な畳み込みのバランスを取る。

理想的なユースケース

YOLOv7は特に以下の用途に適しています。

  • 詳細特徴抽出: 自律走行車のようなシナリオにおいて、小さな物体(例:遠方の信号機)の微細な詳細を認識することが極めて重要となる。
  • 低消費電力デバイス向けエッジAI: YOLOv7はモバイル展開に極めて有効であり、限られたハードウェア環境において精度と速度の優れたバランスを提供する。
  • 研究基盤:その透明性の高いアーキテクチャと広範なアブレーション研究により、ニューラルアーキテクチャ探索の学術研究において好まれる基盤となっている。

批判的比較:長所と短所

YOLOv6.YOLOv6とYOLOv7の選択は、多くの場合、具体的なハードウェア展開対象と視覚タスクの性質によって決まります。

速度と精度のトレードオフ

YOLOv6.YOLOv6、積極的な再パラメータ化とTensorRTにより、専用GPU(NVIDIA など)上で一般的に高いスループットを達成する。例えば、YOLOv6.0lモデルは非常に低いmAP 52.mAP を達成する。一方、 YOLOv7 はパラメータ効率に重点を置いています。YOLOv7モデルは精度をわずかに向上させていますが(53.1%mAP)、より多くのパラメータ数と高い計算複雑性(FLOPs)を伴うため、エッジデバイスでのレイテンシに影響を与える可能性があります。

トレーニング方法

YOLOv6「アンカー補助トレーニング」は、トレーニングを安定化させる一方でトレーニングパイプラインコードに複雑さを加える独自機能である。YOLOv7純粋な「bag-of-freebies」アプローチはトレーニングループをある程度標準的に保つが、E-ELANのような複雑なアーキテクチャ定義に依存する。カスタムトレーニングを行う開発者は、収束速度のYOLOv6 補助ヘッドがYOLOv6 感じるかもしれない。

デプロイメントに関する考慮事項

デプロイ環境NVIDIA GPU(例:クラウドサーバーやJetsonデバイス)に限定されている場合、YOLOv6.YOLOv6コストパフォーマンスに優れたFPSを提供することが多い。ただし、多種のハードウェア(CPU、NPU)で広範なチューニングなしに良好な汎化性能を発揮するモデルが必要な場合は、 YOLOv7 またはそれUltralytics 柔軟性が高い場合が多いです。

Ultralyticsの利点

YOLOv6 YOLOv7 優れたYOLOv7 、Ultralytics 内でこれらを活用することで、機械学習ライフサイクル全体を効率化する明確な利点が得られます。

  • 統一API: Ultralytics Python 、異なるアーキテクチャの複雑さを抽象化します。コード内の単一の文字列を変更するだけで、YOLOv6、YOLOv7、およびYOLO26などの新しいモデル間で切り替えが可能です。
  • よく整備されたエコシステム:研究リポジトリがしばしば休止状態になるのとは異なり、Ultralytics PyTorchの最新バージョンとの互換性をUltralytics 。 PyTorch、CUDA、Pythonの最新バージョンとの互換性を保証します。
  • 汎用性: Ultralytics 単なる検出だけでなく、インスタンスセグメンテーション姿勢推定方向性物体検出(OBB)など、幅広いタスクUltralytics 。
  • メモリ効率: Ultralytics 、トレーニング時のVRAM使用量を低減するよう最適化されており、研究用コードベースが要求する膨大なメモリ使用量とは異なり、コンシューマー向けGPU上で強力なモデルのトレーニングを可能にします。

最先端技術への進化:YOLO26

最高のパフォーマンスと使いやすさを求める開発者向けに、新たにリリースされたYOLO26は、従来のYOLOの遺産を基盤としつつ、重要なアーキテクチャ上のブレークスルーを実現しています。

2026年1月にリリースされたYOLO26は、決定的な「エッジファースト」モデルとして設計されています。ネイティブなNMS設計を採用しており、非最大抑制(NMS)の後処理が不要です。これによりCPU 大幅に高速化され(前世代比最大43%高速)、センシティブなハイパーパラメータを排除することでデプロイメントパイプラインが簡素化されます。

YOLO26についてさらに詳しく

さらに、YOLO26はLLMのトレーニング手法に着想を得たハイブリッド型最適化アルゴリズムMuSGDを採用し、安定性と高速な収束を保証します。DFL除去により、モデルはONNXなどの形式へのエクスポートが容易になります。 ONNXTensorRT などへのエクスポートが容易になり、幅広いデバイス互換性を実現します。

コード例

Ultralytics これらのモデルを実行Ultralytics 。以下の例は、事前学習済みモデルを読み込み、画像に対して推論を実行する方法を示しています:

from ultralytics import YOLO

# Load a YOLOv6, YOLOv7, or the recommended YOLO26 model
model = YOLO("yolov6n.yaml")  # or "yolov7.pt" or "yolo26n.pt"

# Train the model on the COCO8 example dataset
# The system automatically handles data downloading and preparation
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

結論

YOLOv6.0YOLOv7 はリアルタイム物体検出の進化において重要な役割を果たした。YOLOv6.GPU 向けにアーキテクチャを最適化し、産業応用における有力候補となった。YOLOv7 特徴量集約と勾配伝播の限界をYOLOv7 、複雑なシーンでも堅牢な性能を提供した。

しかし、この分野は急速に進化しています。Ultralytics を活用することで、開発者は最先端のYOLOv6と並んでこれらのモデルにアクセスでき、常に最適なツールを確実に利用できます。YOLOv6 純粋GPU 重視する場合YOLOv6 YOLOv7アーキテクチャの独創性をYOLOv6 、Ultralytics それらを単一の強力なワークフローに統合します。

関連モデルの詳細な調査については、以下のドキュメントを参照することを検討してください YOLOv8YOLOv9、および YOLO11


コメント