YOLO26 vsYOLOv7:コンピュータビジョンにおける世代を超えた飛躍
物体検出の分野は過去10年間で急速な進化を遂げ、YOLO You Only Look Once)ファミリーがリアルタイム性能において常に先導役を担ってきた。この系譜における二つの重要なマイルストーンは YOLOv7と、2026年初頭に発表された最先端のYOLO26である。YOLOv7 推論コストを増加させずに学習を最適化する「bag-of-freebies」概念YOLOv7 、YOLO26はエンドツーエンドNMSとCPUパラダイムシフトを実現している。
このガイドは、ハイエンドGPUを対象とする場合でも、リソース制約のあるエッジデバイスを対象とする場合でも、開発者、研究者、エンジニアが特定の導入ニーズに最適なモデルを選択できるよう、詳細な技術比較を提供します。
モデル概要と作成者
これらのモデルの系譜を理解することは、そのアーキテクチャ上の決定や想定されるユースケースを文脈化するのに役立つ。
YOLO26
YOLO26 Ultralytics最新バージョンであり、デプロイの複雑性とエッジ遅延という根強い課題を解決するために設計されています。非最大抑制(NMS)を不要とするエンドツーエンド(E2E)パイプラインを導入し、トレーニングから本番環境までのプロセスを大幅に効率化します。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2026年1月14日
- 主要な革新点: NMS検出、MuSGD最適化アルゴリズム、CPU最適化。
YOLOv7
YOLOv7 は画期的なリリースであり、学習可能な「フリービーの袋」——推論時にコストを追加せずに学習中の精度を向上させる最適化手法——に焦点を当てた。2022年にはリアルタイム物体検出器の新たな最先端ベンチマークを確立した。
- 著者:王建耀、アレクセイ・ボチコフスキー、廖宏源(マーク・リャオ)
- 組織: 中央研究院 情報科学研究所
- 日付:2022年7月6日
- Arxiv:YOLOv7: トレーナブルな無料のバッグが最新のステート・オブ・ジ・アートを実現
- 主要な革新点:E-ELANの再パラメータ化と複合スケーリング。
アーキテクチャの比較
YOLOv7 差異YOLOv7 、それぞれが速度、精度、導入の容易さにおいて持つ強みをYOLOv7 。
YOLO26: エンドツーエンドの革命
YOLO26はエンドツーエンドNMSを採用することで、検出パイプラインを根本的に変革する。YOLOv7を含む従来の検出器は、数千もの候補ボックスを出力し、これらを非最大抑制(NMS)を用いてフィルタリングする必要がある。この後処理ステップは処理速度が遅く、ハイパーパラメータの影響を受けやすく、FPGAやNPUなどの専用ハードウェアへの展開が困難であることが多い。
YOLO26は、トレーニング中に1対1のマッチングを学習することでNMS 排除します。ディストリビューションフォーカルロス(DFL)の除去と組み合わせることで、ONNXなどの形式へのエクスポートがはるかに容易なモデル構造を実現します。 ONNX や TensorRTへのエクスポートが大幅に容易になります。さらに、YOLO26はMuSGDオプティマイザーを採用しています。これはSGD ミューオン(LLMトレーニングに着想を得た)のハイブリッド手法であり、その革新的なアーキテクチャにもかかわらず安定した収束を保証します。
YOLOv7: フリービーの袋とE-ELAN
YOLOv7 拡張効率的層集約ネットワーク(E-ELAN)を通じてアーキテクチャ効率にYOLOv7 。 この設計により、最短および最長の勾配経路を制御することで、ネットワークはより多様な特徴を学習できるようになります。複雑な学習構造を効率的な推論構造に簡素化する再パラメータ化技術に大きく依存しています。GPU には非常に効果的ですが、このアプローチNMS依存性を維持しており、CPU 上や物体密度が極端に高い場合にボトルネックとなる可能性があります。
NMSフリーが重要である理由
エッジデバイスでは、NMS を効果的に並列化できない場合が多い。これを除去したYOLO26は、アンカーベースの前世代モデルと比較してCPU上で最大43%高速な推論を実現し、ラズベリーパイ、スマートフォン、IoTセンサーにおいて優れた選択肢となる。
パフォーマンス指標
以下の表は、YOLOv7に対して達成した性能向上を強調しています。YOLOv7 ハイエンドGPUではYOLOv7 有力な選択肢ですが、YOLO26は効率性、モデルサイズ、CPU 優位性を示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
主なポイント:
- 効率性:YOLO26lモデルは、YOLOv7lよりも3.mAPを達成しつつ、パラメータ数を32%、FLOPsを17%削減しています。
- 速度:YOLO26n (Nano) はエッジAIへの驚異的な導入点を提供し、CPU約40msで動作する。NMS によりYOLOv7アーキテクチャYOLOv7容易に達成できない指標である。
- 精度:最上位モデルでは、YOLO26xが限界を57.5mAP押し上げ、YOLOv7xの53.1mAP大幅に上回っている。
ユースケースと応用
これらのモデル間の選択は、多くの場合、導入環境とアプリケーションの具体的な要件によって決まります。
YOLO26を選択すべき時
YOLO26は、特に以下の点を優先する現代のコンピュータビジョンプロジェクトの大半において推奨される選択肢です:
- エッジコンピューティング:最大43%高速CPU を実現し、Raspberry PiやNVIDIA Nanoなどのデバイスで優れた性能を発揮します。
- 簡素化されたデプロイメント: NMS設計により、CoreMLへのエクスポートが容易になります CoreML (iOS) またはTFLite Android) へのエクスポートをシームレスに行え、一般的なオペレータサポートの問題を回避します。
- 小型物体検出: 改良されたProgLoss + STAL損失関数は、航空画像解析やドローン検査において重要な小型物体の検出において顕著な性能向上をもたらす。
- 多様なタスク:検出機能に加え、YOLO26は姿勢推定、インスタンスセグメンテーション、およびオリエンテッドバウンディングボックス(OBB)をネイティブにサポートします。
YOLOv7を検討すべき時
YOLOv7 、レガシーシステムや特定の研究ベンチマークにおいて、「bag-of-freebies」手法が研究の焦点となる場合にYOLOv7 有用YOLOv7 。
- レガシーGPU :システムが既にハイエンドGPU(V100やA100など)YOLOv7 特定のアンカーベース出力向けに高度に最適化されている場合、移行が遅れる可能性があります。
- 学術研究:勾配経路最適化と再パラメータ化の効果を研究する研究者は、しばしばYOLOv7 使用する。
Ultralyticsエコシステムの利点
YOLO26を採用する最も説得力のある理由の一つは、Ultralytics への深い統合性です。スタンドアロンのリポジトリとは異なり、Ultralytics 統一された、よく管理されたプラットフォームの恩恵を受けます。
- 使いやすさ:「ゼロからヒーローへ」という理念により、インストールからトレーニングまで数分で完了します。Python はバージョン間で一貫しているため、 YOLOv8 から YOLO26 へのアップグレードは、たった1つの文字列を変更するだけで済みます。
- CUDA 効率: Ultralytics 、トランスフォーマーベースの代替モデル(例: RT-DETR)と比較して、より高速なトレーニングと少ないCUDAメモリ使用量を実現します。これにより、コンシューマー向けGPU上でより大きなバッチサイズが可能となります。
- Ultralytics :ユーザーUltralytics を活用して、データセットを可視化し、クラウド上でモデルをトレーニングし、ワンクリックでデプロイできます。
コード例: トレーニングと推論
以下のコードは、Ultralytics 最新のYOLO26モデルを読み込み、トレーニングする方法を示しています。このAPIは複雑な設定を抽象化しているため、初心者でも簡単に利用できます。
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
# The 'n' suffix denotes the Nano version, optimized for speed.
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The system automatically handles dataset downloads and configuration.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a sample image
# The NMS-free output ensures fast and clean results.
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the results
predictions[0].show()
結論
YOLOv7 物体検出の歴史における転換点YOLOv7 に対し、YOLO26は未来を体現する存在である。 そのエンドツーエンドアーキテクチャは、mAP 性能指標を向上させるだけでなく、開発者向けのデプロイワークフローを根本的に簡素化します。NMS 依存を排除しNMS CPU エッジ環境向けに大幅に最適化することで、YOLO26は最先端のコンピュータビジョン技術を、自律走行車からスマートシティ分析に至るまで、実世界のアプリケーションに十分対応可能な、アクセスしやすく効率的で汎用性の高いものとしています。
他のモダンアーキテクチャを探求したい方に向けて、ドキュメントでは以下の内容もカバーしています YOLO11 および YOLOv10についても解説しています。これらは、進化を続けるビジョンAIにおいて異なるトレードオフを提供します。