コンテンツにスキップ

YOLOv6.0 vsYOLOv7:リアルタイム物体検出アーキテクチャの比較

リアルタイムコンピュータビジョンの進化は、アーキテクチャ効率と学習手法の急速な進歩によって特徴づけられてきた。この分野に大きな影響を与えた二つの代表的なYOLOv6.YOLOv6とYOLOv7である。両フレームワークは、推論速度と検出精度のバランスを取るための新たな手法を導入し、ハイエンドサーバーGPUからエッジデバイスに至るまでの展開をターゲットとしている。

この包括的な技術比較では、両者のアーキテクチャ、パフォーマンス指標、および理想的なユースケースを検証するとともに、Ultralytics YOLO26モデルがこれらの基盤概念を基盤として、比類のない開発者体験を実現する方法を明らかにします。

YOLOv6.0: 産業用スループット最適化

美団(Meituan)のビジョンAI部門が開発したYOLOv6、高スループット産業用途向けに明示的に設計された。ハードウェアアクセラレータでの性能最大化に重点を置いており、専用GPUでのバッチ処理が可能な環境において有力な選択肢となる。

  • 著者:李秋怡、李露露、耿一飛、江洪亮、程萌、張博、柯載丹、徐暁明、および朱向翔
  • 組織:美団(Meituan)
  • 日付: 2023年1月13日
  • Arxiv:2301.05586
  • GitHub:YOLOv6

アーキテクチャの革新

YOLOv6 はEfficientRepバックボーンを採用しており、GPU上のメモリアクセスコストを最適化するために設計されたハードウェアに優しいアーキテクチャである。異なるスケール間での特徴融合を強化するため、本モデルはネック部分に双方向連結(BiC)モジュールを導入している。これにより、ネットワークは以前のバージョンよりも効果的に複雑な空間階層を捕捉できる。

さらに、YOLOv6.YOLOv6 アンカー補助学習(AAT)戦略を実装している。この手法は、アンカーベース学習の豊富な勾配信号と、アンカーフリー推論の効率的な展開メリットを組み合わせることで、後処理速度を犠牲にすることなくモデルの収束をより安定させる。

YOLOv6について詳しくはこちら

ハードウェアに関する考慮事項

YOLOv6.YOLOv6サーバーグレードGPU(NVIDIA など)では優れた性能を発揮するが、特定の構造的再パラメータ化への依存度が高いため、CPU完全にCPUエッジデバイスでは、新しいアーキテクチャと比較してレイテンシが最適化されない場合がある。

YOLOv7:フリービーの袋の先駆者

中央研究院の研究者らが発表したYOLOv7 、勾配経路解析と推論コストを増加させない訓練時最適化に重点を置くという異なるアプローチYOLOv7 。著者らはこれを「訓練可能なフリービーの袋」と呼んでいる。

  • 著者:王建耀、アレクセイ・ボチコフスキー、廖宏源マーク
  • 組織名:台湾中央研究院情報科学研究所
  • 日付: 2022年7月6日
  • Arxiv:2207.02696
  • GitHub:WongKinYiu/yolov7

アーキテクチャの革新

YOLOv7 拡張効率的層集約ネットワーク(E-ELAN) YOLOv7 。E-ELANは、元のネットワークトポロジーを損なうことなく、異なる層がより多様な特徴を学習できるようにすることで勾配経路を最適化する。これにより、最高水準の平均精度(mAP)を達成可能な高い表現力を持つモデルが実現される。

YOLOv7 推論時に畳み込み層とバッチ正規化を統合するモデル再パラメータ化YOLOv7 多用する。これによりパラメータ数が削減され、TensorFlowやPyTorchなどのフレームワークで展開する際の順方向伝播が高速化される。 NVIDIA TensorRTONNXなどのフレームワークでデプロイする際のパラメータ数を削減し、フォワードパスの速度を向上

YOLOv7について詳しくはこちら

パフォーマンス比較

MSCOCOデータセット上でこれらのモデルを評価した結果、YOLOv6 超軽量バリエーションYOLOv6 精度重視でパラメータ数を大幅にYOLOv7 YOLOv6 明確なトレードオフが観察された。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

データは、YOLOv6.YOLOv6卓越した推論速度を提供し、高頻度動画解析に適していることを示している。一方、YOLOv7xはmAPを達成し、検出精度が生フレームレートよりも最優先されるタスクにおいて優位性を示している。

ユースケースと推奨事項

YOLOv7 具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステムの好みにYOLOv7 。

YOLOv6を選択すべき時

YOLOv6 以下に最適YOLOv6 :

  • 産業用ハードウェア対応デプロイメント:モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェア上で最適化されたパフォーマンスを提供するシナリオ。
  • 高速シングルステージ検出:制御された環境におけるリアルタイム動画処理GPU 上での生の推論速度を優先するアプリケーション。
  • 美団エコシステム統合: 美団のテクノロジースタックおよびデプロイメントインフラストラクチャ内で既に稼働しているチーム。

YOLOv7を選択すべき時

YOLOv7 以下に推奨YOLOv7 :

  • 学術ベンチマーク:2022年当時の最先端結果の再現、またはE-ELANおよび学習可能なフリービー袋技法の効果の研究。
  • 再パラメータ化研究:計画的再パラメータ化畳み込みと複合モデルスケーリング戦略の検討
  • 既存のカスタムパイプライン: YOLOv7特定アーキテクチャを中心に構築された高度にカスタマイズされたパイプラインを持つプロジェクトで、容易にリファクタリングできないもの。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:

  • NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
  • CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
  • 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。

Ultralytics :未来へ踏み出す

YOLOv6.YOLOv7 重要なマイルYOLOv7 一方、異なるリポジトリを本番パイプラインに統合する際には、モデルデプロイやハイパーパラメータ調整において課題が生じることが多い。Ultralytics は、合理化された統一インターフェースを提供することで、これらの課題を解決する。

Ultralyticsを選ぶ理由

  • 使いやすさ: Ultralytics Python 開発者はわずか数行のコードでモデルの読み込み、トレーニング、エクスポートが可能です。古いモデルから最新のアーキテクチャへの切り替えには、たった1つの文字列を変更するだけで済みます。
  • 健全なエコシステム: Ultralytics 頻繁なアップデート、活発なコミュニティサポート、充実したドキュメント Ultralytics 。
  • 汎用性:バウンディングボックスに主眼を置いていた従来モデルとは異なり、Ultralytics インスタンスセグメンテーション姿勢推定オリエンテッドバウンディングボックス(OBB)を含むマルチタスク学習をネイティブにサポートします。
  • メモリ要件: Ultralytics YOLO 、Transformerベースのアーキテクチャと比較して、トレーニング中のメモリ使用量が低くなります。 RT-DETRなどのトランスフォーマーベースのアーキテクチャと比較して、トレーニング中のメモリ使用量が低いため、研究者はコンシューマーグレードのハードウェア上で効果的にトレーニングできます。

YOLO26へのアップグレード

最高の性能を求める開発者向けに、YOLO26(2026年1月リリース)は物体検出のパラダイムを根本的に変革します。完全なエンドツーエンドNMS設計を導入し、複雑な後処理ロジックを排除するとともに、エッジデバイスにおける遅延変動を大幅に低減します。

YOLO26の主な革新点には以下が含まれます:

  • MuSGDオプティマイザ: SGD 高度なハイブリッド手法であり、驚異的な安定性を備えた学習ダイナミクスと高速な収束を保証します。
  • DFL除去:ディストリビューション焦点損失(Distribution Focal Loss)を除去することで、YOLO26はエクスポート互換性を簡素化し、低電力デバイスでの性能を向上させます。
  • ProgLoss + STAL:小物体認識において顕著な改善をもたらす高度な損失関数。
  • 比類なき速度:前世代比で最大43%高速なCPU を実現し、ラズベリーパイAppleCoreMLデプロイメントなどの組み込みシステムに最適です。

エコシステム内のその他の高性能モデルには以下が含まれます YOLO11 および YOLOv8が含まれます。いずれもレガシーハードウェア統合において優れた性能バランスを提供します。

将来を見据えたパイプライン構築

Ultralytics 上でコンピュータビジョンアプリケーションを構築することで、データセットローダーやデプロイスクリプトを書き直すことなく、将来の最先端モデルに即座にアクセスできます。

コード例:効率化されたトレーニング

以下のスニペットは、Ultralytics を使用して最先端のYOLO26モデルをいかに簡単にトレーニングできるかを示しています。このワークフローはYOLO11 YOLOv8 YOLO11 シームレスに適用でき、従来のリポジトリで必要だった定型コードを抽象化します。

from ultralytics import YOLO

# Load the cutting-edge YOLO26 nano model for rapid training
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 dataset
# The API handles dataset downloading, augmentation, and hyperparameter configuration
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    device="cuda:0",  # Automatically utilizes PyTorch GPU acceleration
)

# Run an end-to-end, NMS-free inference on a test image
predictions = model.predict("https://ultralytics.com/images/bus.jpg")

# Export to ONNX for cross-platform deployment
model.export(format="onnx")

結論

YOLOv6.YOLOv7 、リアルタイム検出の課題における異なる側面をYOLOv7 解決した。YOLOv6.YOLOv6 GPU に特化した強力なソリューションである一方、YOLOv7 厳密な勾配経路最適化により高い精度YOLOv7 。

しかし、比類のない汎用性、最小限の導入障壁、そして最先端の性能を必要とする現代のアプリケーションにおいては、Ultralytics 決定的な選択肢として君臨しています。そのNMS、先進的なMuSGDオプティマイザ、Ultralytics との深い統合により、開発者はこれまで以上に迅速に、強力でスケーラブルなビジョンAIソリューションを展開できます。


コメント