コンテンツにスキップ

YOLOv7OLOX対YOLOv7:包括的な技術比較

リアルタイム物体検出の進化は、継続的なアーキテクチャの革新によって推進されてきた。この道のりにおける二つの重要なマイルストーンがYOLOXとYOLOv7である。両モデルは1年以内に相次いで発表され、標準的な物体検出パラダイムに革新的なアプローチを導入し、速度と精度のトレードオフを大幅に改善した。

このページでは、YOLOXとYOLOv7のアーキテクチャ、性能指標、最適なユースケースを比較し、コンピュータビジョン展開に最適なツールを選択できるよう、詳細な技術分析を提供します。

YOLOX:アンカー不要検出の先駆け

2021年7月にMegviiの研究者によって発表されたYOLOXは、従来のアンカーベース設計からの脱却という大きな転換を示した。学術研究と産業応用との隔たりを埋めることで、YOLOXは検出ヘッドを簡素化し、全体的な性能を向上させた。

主要モデルの詳細:

アーキテクチャの革新

YOLOXはアンカーフリー手法を導入し、カスタムデータセットに必要な設計パラメータ数とヒューリスティックな調整を大幅に削減した。分類と回帰タスクを分離するデカップルドヘッドを実装し、収束速度と精度を向上させた。さらに、MixUp モザイクMixUp 高度なデータ拡張戦略を活用し、モデルの頑健性を強化した。

YOLOXの詳細について。

アンカー不要の利点

アンカーボックスを排除することで、YOLOXは学習時の予測値と真値間の交差率(IoU)計算に伴う計算オーバーヘッドを削減し、CUDA 要件の低減と学習時間の短縮を実現する。

YOLOv7: Trainable Bag-of-Freebies

2022年7月に台湾・中央研究院情報科学研究所の研究者らによって発表YOLOv7 、リアルタイム物体検出の限界をさらにYOLOv7 。本手法は「訓練可能なフリービーの袋」という概念を導入し、発表時点でMSCOCO において新たな最先端ベンチマークを確立した。

主要モデルの詳細:

アーキテクチャの革新

YOLOv7アーキテクチャYOLOv7拡張効率的層集約ネットワーク(E-ELAN)を中核として構築されており、これによりモデルは勾配経路を損なうことなく多様な特徴を継続的に学習できる。YOLOv7 モデル再パラメータ化YOLOv7 、複雑な多枝トレーニングネットワークを推論時には高速な単一経路ネットワークに簡素化することを可能にした。

YOLOv7について詳しくはこちら

パフォーマンス比較

これらのモデルを実世界での応用において評価する際、異なるスケールにおける性能を理解することが極めて重要です。下表は、様々なYOLOv7標準的な指標を比較したものです。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOXnano41625.8--0.911.08
YOLOXtiny41632.8--5.066.45
YOLOXs64040.5-2.569.026.8
YOLOXm64046.9-5.4325.373.8
YOLOXl64049.7-9.0454.2155.6
YOLOXx64051.1-16.199.1281.9
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

分析

  • 精度: YOLOv7 高い精度を達成する mAP を達成する。例えば、YOLOv7xは53.1mAP YOLOXxは51.1mAP
  • GPU 両モデルとも TensorRTでGPU実行向けに高度に最適化されていますが、YOLOv7E-ELANYOLOv7ハイエンドアプリケーションにおいてわずかに優れたスループットを提供します。一方、YOLOXは小型エッジデバイス上で優れたレイテンシを維持します。
  • 汎用性: YOLOv7 、インスタンスセグメンテーションと 姿勢推定用の重みをネイティブに提供することで、バウンディングボックスYOLOv7 、ベースとなるYOLOXリポジトリよりも汎用性を高めた。

現実世界のアプリケーション

これらのモデルを選択する際には、多くの場合、具体的な導入環境が決め手となります。

エッジコンピューティングとIoT

ラズベリーパイや旧式のモバイルプロセッサのような制約のあるエッジデバイスにおいては、YOLOX-NanoYOLOX-Tinyが非常に魅力的です。最小限のパラメータ数とアンカーフリーな性質により、基本的なモーショントラッキングやスマートドアベルアプリケーションといったタスクにおいて、低電力環境での導入が容易になります。

高精細映像解析

産業用欠陥検出や高密度交通監視における高解像度映像の処理には、 YOLOv7 が優れています。その堅牢な特徴量集約により、物体が部分的に遮蔽されたり、スケールが大きく変動したりする場合でも高い精度を維持できます。

ユースケースと推奨事項

YOLOv7 、具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステム上の好みにYOLOv7 。

YOLOXを選択すべき時

YOLOXは以下に最適な選択肢です:

  • アンカーフリー検出研究:YOLOXのクリーンなアンカーフリーアーキテクチャをベースラインとして、新たな検出ヘッドや損失関数の実験を行う学術研究。
  • 超軽量エッジデバイス:マイクロコントローラーやレガシーモバイルハードウェアへの展開において、YOLOX-Nanoモデルの極めて小さなフットプリント(0.91Mパラメータ)が極めて重要となる。
  • SimOTAラベル割り当て研究:最適輸送に基づくラベル割り当て戦略と、それが学習収束に与える影響を調査する研究プロジェクト。

YOLOv7を選択すべき時

YOLOv7 以下に推奨YOLOv7 :

  • 学術ベンチマーク:2022年当時の最先端結果の再現、またはE-ELANおよび学習可能なフリービー袋技法の効果の研究。
  • 再パラメータ化研究:計画的再パラメータ化畳み込みと複合モデルスケーリング戦略の検討
  • 既存のカスタムパイプライン: YOLOv7特定アーキテクチャを中心に構築された高度にカスタマイズされたパイプラインを持つプロジェクトで、容易にリファクタリングできないもの。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:

  • NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
  • CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
  • 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。

Ultralyticsの利点

YOLOXとYOLOv7 はいずれも強力な研究YOLOv7 、研究リポジトリからスケーラブルな本番環境への移行は困難を伴います。ここでUltralytics 真価を発揮します。

Ultralytics 統一Python を提供し、モデルのトレーニング、検証、デプロイを合理化された標準化されたタスクとして扱います。従来のアーキテクチャで一般的な複雑なサードパーティ依存関係やカスタムC++オペレーターの管理に頭を悩ませる必要はありません。

さらに、Ultralytics YOLO 、Transformerベースの検出器と比較して、トレーニング中に CUDA 大幅に少なくて済みます。 RT-DETRといったトランスフォーマーベースの検出器と比較して、トレーニング中に必要とするCUDAメモリが大幅に少なくて済みます。これにより、実践者はより大きなバッチサイズを利用できるようになり、トレーニングを安定させるとともに、カスタムデータセットでの収束を加速させることが可能です。

サポートされている統合

Ultralytics 、業界標準フォーマット(例:ONNX)へのモデルのエクスポートをUltralytics サポートしています。 ONNXOpenVINOCoreML をシンプルなブールフラグで制御し、モデルデプロイプロセスを大幅に簡素化します。

コード例:Ultralyticsを使用したトレーニング

Ultralytics では、わずか数行のコードでYOLOv7 アーキテクチャを用いたモデルの読み込み、トレーニング、推論を容易に行えます。

from ultralytics import YOLO

# Load a pre-trained YOLOv7 model
model = YOLO("yolov7.pt")

# Train the model on a custom dataset (e.g., COCO8)
# The API handles data loading, augmentation, and memory management automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on a test image
predictions = model("path/to/image.jpg")
predictions[0].show()

未来: Ultralytics YOLO26

YOLOv7 重要な歴史的段階を示すものの、最先端技術は急速に進化している。2026年1月にUltralytics 、従来のモデルを凌駕する画期的なパラダイムを導入している。

YOLO26についてさらに詳しく

  • エンドツーエンドNMS:YOLO26は非最大抑制(NMS)後処理をネイティブに排除します。これにより遅延ボトルネックが大幅に削減され、多様なハードウェア構成において決定論的な実行時間が保証されます。
  • 最大43%高速CPU :ディストリビューション・フォーカル・ロス(DFL)を排除し、ネットワーク深さを最適化することで、YOLO26はGPU を持たないエッジデバイス向けに大幅に最適化されています。
  • MuSGDオプティマイザー:高度なLLMトレーニング技術に着想を得たMuSGDオプティマイザー(SGD )は、卓越したトレーニング安定性とより速い収束性を提供します。
  • 小型物体検出の改善:ProgLossとSTAL損失関数の統合により、小型で遠方の物体の認識精度が大幅に向上しました。これはドローン測量やセキュリティ監視において極めて重要です。
  • ネイティブタスクサポート:YOLO26は、オリエンテッドバウンディングボックス(OBB)、インスタンスセグメンテーション、姿勢推定を、同じ合理化されたAPI内でネイティブに包括的にサポートします。

現代の開発者が新たなコンピュータビジョンプロジェクトを開始する場合、プラットフォームUltralytics 評価することが、速度・精度・導入容易性の絶対的な最適バランスを実現する推奨アプローチです。 YOLO11YOLOv8からの移行では、モデル文字列を変更するだけで、優れた機能が即座に利用可能になります。


コメント