YOLOv6.0 vsYOLOv7:リアルタイム物体検出アーキテクチャの比較
リアルタイムコンピュータビジョンの進化は、アーキテクチャ効率と学習手法の急速な進歩によって特徴づけられてきた。この分野に大きな影響を与えた二つの代表的なYOLOv6.YOLOv6とYOLOv7である。両フレームワークは、推論速度と検出精度のバランスを取るための新たな手法を導入し、ハイエンドサーバーGPUからエッジデバイスに至るまでの展開をターゲットとしている。
この包括的な技術比較では、両者のアーキテクチャ、パフォーマンス指標、および理想的なユースケースを検証するとともに、Ultralytics とYOLO26モデルがこれらの基盤概念を基盤として、比類のない開発者体験を実現する方法を明らかにします。
YOLOv6.0: 産業用スループット最適化
MeituanのVision AI部門によって開発されたYOLOv6-3.0は、高スループットの産業用アプリケーション向けに明示的に設計されました。ハードウェアアクセラレータでのパフォーマンス最大化に重点を置いており、専用GPUでのバッチ処理が可能な環境において有力な候補となります。
- 著者:Chuyi Li、Lulu Li、Yifei Geng、Hongliang Jiang、Meng Cheng、Bo Zhang、Zaidan Ke、Xiaoming Xu、Xiangxiang Chu
- 組織:美団(Meituan)
- 日付: 2023-01-13
- Arxiv: 2301.05586
- GitHub:YOLOv6
アーキテクチャの革新
YOLOv6 はEfficientRepバックボーンを採用しており、GPU上のメモリアクセスコストを最適化するために設計されたハードウェアに優しいアーキテクチャである。異なるスケール間での特徴融合を強化するため、本モデルはネック部分に双方向連結(BiC)モジュールを導入している。これにより、ネットワークは以前のバージョンよりも効果的に複雑な空間階層を捕捉できる。
さらに、YOLOv6.YOLOv6 アンカー補助学習(AAT)戦略を実装している。この手法は、アンカーベース学習の豊富な勾配信号と、アンカーフリー推論の効率的な展開メリットを組み合わせることで、後処理速度を犠牲にすることなくモデルの収束をより安定させる。
ハードウェアに関する考慮事項
YOLOv6.YOLOv6サーバーグレードGPU(NVIDIA など)では優れた性能を発揮するが、特定の構造的再パラメータ化への依存度が高いため、CPU完全にCPUエッジデバイスでは、新しいアーキテクチャと比較してレイテンシが最適化されない場合がある。
YOLOv7:フリービーの袋の先駆者
中央研究院の研究者らが発表したYOLOv7 、勾配経路解析と推論コストを増加させない訓練時最適化に重点を置くという異なるアプローチYOLOv7 。著者らはこれを「訓練可能なフリービーの袋」と呼んでいる。
- 著者:王建耀、アレクセイ・ボチコフスキー、廖宏源マーク
- 組織名:台湾中央研究院情報科学研究所
- 日付: 2022年7月6日
- Arxiv:2207.02696
- GitHub:WongKinYiu/yolov7
アーキテクチャの革新
YOLOv7 拡張効率的層集約ネットワーク(E-ELAN) YOLOv7 。E-ELANは、元のネットワークトポロジーを損なうことなく、異なる層がより多様な特徴を学習できるようにすることで勾配経路を最適化する。これにより、最高水準の平均精度(mAP)を達成可能な高い表現力を持つモデルが実現される。
YOLOv7 推論時に畳み込み層とバッチ正規化を統合するモデル再パラメータ化YOLOv7 多用する。これによりパラメータ数が削減され、TensorFlowやPyTorchなどのフレームワークで展開する際の順方向伝播が高速化される。 NVIDIA TensorRT や ONNXなどのフレームワークでデプロイする際のパラメータ数を削減し、フォワードパスの速度を向上
パフォーマンス比較
MSCOCOデータセット上でこれらのモデルを評価した結果、YOLOv6 超軽量バリエーションYOLOv6 精度重視でパラメータ数を大幅にYOLOv7 YOLOv6 明確なトレードオフが観察された。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv6-3.0n | 640 | 37.5 | - | 1.17 | 4.7 | 11.4 |
| YOLOv6-3.0s | 640 | 45.0 | - | 2.66 | 18.5 | 45.3 |
| YOLOv6-3.0m | 640 | 50.0 | - | 5.28 | 34.9 | 85.8 |
| YOLOv6-3.0l | 640 | 52.8 | - | 8.95 | 59.6 | 150.7 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
データは、YOLOv6.YOLOv6卓越した推論速度を提供し、高頻度動画解析に適していることを示している。一方、YOLOv7xはmAPを達成し、検出精度が生フレームレートよりも最優先されるタスクにおいて優位性を示している。
ユースケースと推奨事項
YOLOv6とYOLOv7のどちらを選択するかは、特定のプロジェクト要件、デプロイメントの制約、およびエコシステムの好みに依存します。
YOLOv6を選択すべき時
YOLOv6 以下に最適YOLOv6 :
- 産業用ハードウェア対応デプロイメント: モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェアで最適化されたパフォーマンスを提供するシナリオです。
- 高速シングルステージdetect: 制御された環境でのリアルタイムビデオ処理のために、GPUでの生の推論速度を優先するアプリケーション。
- 美団エコシステム統合: 美団の技術スタックとデプロイメントインフラストラクチャ内で既に作業しているチーム。
YOLOv7を選択すべき時
YOLOv7 以下に推奨YOLOv7 :
- Academic Benchmarking: 2022年時代の最先端の結果を再現したり、E-ELANと学習可能なbag-of-freebies技術の効果を研究する場合に。
- 再パラメータ化研究: 計画された再パラメータ化畳み込みと複合モデルスケーリング戦略の調査。
- 既存のカスタムパイプライン: YOLOv7の特定のアーキテクチャを中心に構築され、容易にリファクタリングできない大幅にカスタマイズされたパイプラインを持つプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
Ultralytics :未来へ踏み出す
YOLOv6.YOLOv7 重要なマイルYOLOv7 一方、異なるリポジトリを本番パイプラインに統合する際には、モデルデプロイやハイパーパラメータ調整において課題が生じることが多い。Ultralytics は、合理化された統一インターフェースを提供することで、これらの課題を解決する。
Ultralyticsを選ぶ理由
- 使いやすさ: Ultralytics Python APIを使用すると、開発者はわずか数行のコードでモデルをロード、トレーニング、エクスポートできます。古いモデルから最新のアーキテクチャに切り替えるには、文字列を1つ変更するだけで済みます。
- よく整備されたエコシステム: Ultralyticsは、頻繁な更新、活発なコミュニティサポート、および堅牢なドキュメントを提供します。
- 多様性: 主にバウンディングボックスに焦点を当てていた以前のモデルとは異なり、Ultralyticsモデルは、インスタンスセグメンテーション、姿勢推定、そしてoriented bounding boxes (obb)を含むマルチタスク学習をネイティブにサポートします。
- メモリ要件: Ultralytics YOLOモデルは、RT-DETRのようなTransformerベースのアーキテクチャと比較して、トレーニング中のメモリ使用量が少なく、研究者はコンシューマーグレードのハードウェアで効果的にトレーニングできます。
YOLO26へのアップグレード
最高のパフォーマンスを追求する開発者にとって、YOLO26(2026年1月リリース)は物体検出のパラダイムを根本的に変えます。完全なEnd-to-End NMS-Free Designを導入し、複雑な後処理ロジックを排除し、エッジデバイスでのレイテンシのばらつきを大幅に削減します。
YOLO26の主な革新点には以下が含まれます:
- MuSGDオプティマイザ: SGDとMuonの洗練されたハイブリッドで、驚くほど安定したトレーニングダイナミクスと高速な収束を保証します。
- DFLの削除: Distribution Focal Lossを排除することで、YOLO26はエクスポートの互換性を簡素化し、低電力デバイスでのパフォーマンスを向上させます。
- ProgLoss + STAL: 小さな物体認識において顕著な改善をもたらす高度な損失関数。
- 比類なき速度: 以前の世代と比較して最大43%高速なCPU推論を実現し、Raspberry Pi や Apple CoreML のデプロイメントのような組み込みシステムに最適です。
エコシステム内のその他の高性能モデルには以下が含まれます YOLO11 および YOLOv8が含まれます。いずれもレガシーハードウェア統合において優れた性能バランスを提供します。
将来を見据えたパイプライン構築
Ultralytics Platform上でコンピュータビジョンアプリケーションを構築することで、データセットローダーやデプロイメントスクリプトを書き直すことなく、将来の最先端モデルにすぐにアクセスできるようになります。
コード例: 効率化されたトレーニング
以下のスニペットは、Ultralytics を使用して最先端のYOLO26モデルをいかに簡単にトレーニングできるかを示しています。このワークフローはYOLO11 YOLOv8 YOLO11 シームレスに適用でき、従来のリポジトリで必要だった定型コードを抽象化します。
from ultralytics import YOLO
# Load the cutting-edge YOLO26 nano model for rapid training
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The API handles dataset downloading, augmentation, and hyperparameter configuration
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device="cuda:0", # Automatically utilizes PyTorch GPU acceleration
)
# Run an end-to-end, NMS-free inference on a test image
predictions = model.predict("https://ultralytics.com/images/bus.jpg")
# Export to ONNX for cross-platform deployment
model.export(format="onnx")
結論
YOLOv6.YOLOv7 、リアルタイム検出の課題における異なる側面をYOLOv7 解決した。YOLOv6.YOLOv6 GPU に特化した強力なソリューションである一方、YOLOv7 厳密な勾配経路最適化により高い精度YOLOv7 。
しかし、比類のない汎用性、最小限の導入障壁、そして最先端の性能を必要とする現代のアプリケーションにおいては、Ultralytics 決定的な選択肢として君臨しています。そのNMS、先進的なMuSGDオプティマイザ、Ultralytics との深い統合により、開発者はこれまで以上に迅速に、強力でスケーラブルなビジョンAIソリューションを展開できます。