コンテンツにスキップ

YOLOv7 YOLO26:物体検出における技術的飛躍

コンピュータビジョンの世界は目まぐるしい速さで変化している。2022年には YOLOv7 が速度と精度の新たな基準を打ち立て、E-ELANなどのアーキテクチャ革新を導入した。時は流れ2026年1月、YOLO26はエンドツーエンド設計、CPU 、大規模言語モデル(LLM)から借用したトレーニング安定性により、最先端技術を再定義した。

このガイドでは、物体検出の歴史における二つの重要な節目を技術的に比較し、開発者が現代的な展開に適したツールを選択する手助けをします。

アーキテクチャの進化

YOLOv7 、効率性と使いやすさを追求したニューラルネットワークの設計手法における根本的な変化を示すものである。

YOLOv7: E-ELANの遺産

YOLOv7は、2022年7月6日に公開され、中央研究院情報科学研究所の王建耀、Alexey Bochkovskiy、および李宏源(Hong-Yuan Mark Liao)によって開発されました。

その中核となる革新は拡張効率的層集合ネットワーク(E-ELAN)であった。このアーキテクチャは、最短および最長の勾配経路を制御することで、ネットワークがより多様な特徴を学習することを可能にする。また、計画的再パラメータ化を含む「フリービーの袋」を導入し、推論コストを増加させることなく精度を向上させた。 しかしYOLOv7 アンカーボックスにYOLOv7 、非最大抑制(NMS)後処理を必要とするため、レイテンシ変動が生じ、エッジデバイスへの展開が複雑化する。

YOLOv7について詳しくはこちら

YOLO26: エンドツーエンドの革命

UltralyticsがリリースしたYOLO26Ultralytics が2026年1月にリリースしたYOLO26は、エッジコンピューティングと簡素化された機械学習オペレーションの時代に向けて構築されています。

主要な革新:エンドツーエンドのNMS

YOLO26はネイティブにエンドツーエンドであり、NMS の必要性を排除します。この画期的な技術は、 YOLOv10で初めて実現されたこの画期的な技術により、推論の遅延が大幅に短縮され、デプロイメントパイプラインが簡素化され、モデル出力が即座に使用可能な状態が保証されます。

YOLO26はいくつかの重要な進歩を導入します:

  1. MuSGDオプティマイザー:Moonshot AIのKimi K2とLLMトレーニング技術に着想を得た、このハイブリッド型 SGD とミューオンを融合させた本技術は、コンピュータービジョン訓練に前例のない安定性をもたらし、収束速度を向上させます。
  2. DFL除去:YOLO26は分布焦点損失(DFL)を除去することで出力層を簡素化します。これにより ONNXTensorRT へのエクスポートを円滑にし、低電力エッジデバイスとの互換性を向上させます。
  3. ProgLoss + STAL:これらの改良された損失関数は、ドローン画像やIoTセンサーにとって重要な要件である小物体認識において顕著な向上をもたらす。

YOLO26についてさらに詳しく

パフォーマンス分析

生データ指標を比較すると、YOLO26は4年間の研究で達成された効率性の向上を示している。特にCPU上において、わずかなパラメータでより高い精度を実現し、推論速度を大幅に高速化している。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

速度と効率

YOLO26は高性能GPUを必要としない環境向けに特別に最適化されています。負荷の高い後処理ステップの削除とブロックの最適化により、前世代と比較して最大43%CPU を実現します。ラズベリーパイ、スマートフォン、汎用CPUへのデプロイを検討する開発者にとって、YOLO26は圧倒的な優位性を示します。

対照的に、YOLOv7 主にGPU (具体的にはV100およびA100)を念頭にYOLOv7 。CUDA 上では高速性を維持しているものの、現代のエッジAIに必要なアーキテクチャの合理化設計が欠けている。

トレーニングとエコシステム

両モデルのユーザー体験の差は顕著である。YOLOv7 古いリポジトリ構造にYOLOv7 、複雑な環境設定、手動でのデータフォーマット、冗長なコマンドライン引数が必要となる場合が多い。

Ultralyticsの利点

YOLO26Ultralytics に完全に統合されており、効率的な「ゼロからヒーローへ」の体験を提供します。

  • 使いやすさ: ライブラリは以下経由でインストールできます pip install ultralytics 数秒でトレーニングを開始できます。APIは一貫性があり、Pythonicで、よく文書化されています。
  • Ultralytics :YOLO26ユーザーは、データセット管理、自動アノテーション、ワンクリッククラウドトレーニングUltralytics を活用できます。
  • 汎用性: YOLOv7 主に物体検出(姿勢推定/セグメンテーションの分岐を含む)にYOLOv7 のに対し、YOLO26は同一フレームワーク内で物体検出インスタンスセグメンテーション姿勢推定分類、および方向付きバウンディングボックス(OBB)をネイティブにサポートする。

コード例

使用の複雑さを比較すると、Ultralytics ワークフローを大幅に簡素化します。

from ultralytics import YOLO

# Load the latest YOLO26 model (nano version for speed)
model = YOLO("yolo26n.pt")

# Train the model on your custom dataset
# No complex config files needed, just point to your data.yaml
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with NMS-free speed
# The results object contains easy-to-parse boxes and masks
results = model("path/to/image.jpg")

理想的なユースケース

YOLOv7を選択すべき時

YOLOv7 学術界においてYOLOv7 高く評価されているモデルYOLOv7 、以下の用途に関連する可能性がある:

  • レガシーシステム: YOLOv7 深く統合されており、容易に移行できないプロジェクト。
  • 研究ベンチマーキング:研究者が新たなアーキテクチャを2022年の最先端基準と比較する。
  • GPU :特定のE-ELAN構造が旧式ハードウェア上でニッチな優位性を発揮するシナリオ。ただし、これは稀になりつつある。

YOLO26を選択すべき時

YOLO26は、その性能バランス学習効率の高さから、ほぼ全ての新規商用および研究プロジェクトにおいて推奨される選択肢です。

  • エッジコンピューティング:コンパクトなサイズとCPU により、モバイル端末(Android)や組み込みデバイス(Jetson、Raspberry Pi)への展開に最適です。
  • リアルタイム分析: NMS設計により一貫したレイテンシが保証され、自動運転やロボティクスなどの安全性が極めて重要なアプリケーションに不可欠です。
  • 複雑なタスク:プロジェクトで検出、セグメンテーション、OBB(例:航空画像解析)の切り替えが必要な場合、YOLO26の汎用性の高いヘッドアーキテクチャが優れています。
  • 低メモリ環境:YOLO26は、トランスフォーマーを多用するモデルや旧式アーキテクチャと比較して、トレーニングCUDA 使用量が大幅に少なく、コンシューマー向けGPUでより大きなバッチサイズを可能にします。

結論

YOLOv7 物体検出の歴史における転換点YOLOv7 に対し、YOLO26は未来を体現する存在です。Ultralytics 、LLMに着想を得た最適化手法(MuSGD)の安定性と、NMS合理化されたアーキテクチャを組み合わせることで、より高速で高精度、かつ大幅に使いやすくなったモデルUltralytics

堅牢で将来性のあるコンピュータビジョンアプリケーションを構築したい開発者にとって、統合されたエコシステム、豊富なドキュメント、優れたパフォーマンスを備えたYOLO26は、明らかに最適な選択肢です。

その他のモデルを見る

Ultralytics 探索したい場合は、以下をご検討ください YOLO11 を汎用タスクに、あるいは RT-DETR (純粋な推論速度よりもグローバルコンテキストを優先するトランスフォーマーベースの検出用)をご検討ください。


コメント