コンテンツにスキップ

YOLO26 vs. YOLO11: コンピュータビジョンエンジニアのための技術比較

リアルタイム物体検出とコンピュータビジョンの分野は急速な進化を続けています。Ultralyticsはこの進化の最前線に立ち、速度、精度、使いやすさの限界を常に押し広げています。この技術比較では、YOLO26YOLO11のアーキテクチャの進歩、パフォーマンス指標、および理想的なユースケースを深く掘り下げ、開発者や研究者がそれぞれの展開ニーズに最適なモデルを選択するのを支援します。

概要

2026年1月にリリースされたYOLO26は、YOLOファミリーにおける最新の最先端(SOTA)技術を体現しています。ネイティブなエンドツーエンド(NMSフリー)アーキテクチャを導入しており、エッジ展開向けに合理化され、CPUパフォーマンス向けに最適化されています。2024年9月の前身であるYOLO11は依然として強力で堅牢な選択肢ですが、YOLO26は特に非GPUハードウェアにおける推論速度とアーキテクチャのシンプルさにおいてそれを上回ります。

ほとんどの新規プロジェクトにおいて、優れた速度と精度のトレードオフ、および簡素化された展開パイプラインにより、YOLO26が推奨される選択肢です

アーキテクチャの進化

YOLO11からYOLO26への移行には、レイテンシと複雑さを軽減しつつ高精度を維持することを目的とした、大幅な構造的変更が含まれています。

YOLO26: 合理化されたエンドツーエンド

YOLO26は、ネイティブなエンドツーエンド設計を採用することでパラダイムシフトを画期的に示しています。重複するバウンディングボックスをフィルタリングするためにNon-Maximum Suppression (NMS)に依存する従来のYOLOモデルとは異なり、YOLO26はこのステップを完全に排除しています。YOLOv10で初めて開拓されたこの画期的な進歩は、展開パイプラインを簡素化し、推論レイテンシを削減することで、リアルタイムアプリケーションにとって特に有利になります。

YOLO26における主要なアーキテクチャ革新には以下が含まれます。

  • DFLの削除: Distribution Focal Loss (DFL)モジュールが削除されました。この簡素化により、エッジデバイスとの互換性が向上し、低電力プロセッサのボトルネックとなる可能性のある複雑な数学的演算を削除することで、ONNXやTensorRTのような形式へのエクスポートが加速されます。
  • MuSGDオプティマイザ: 大規模言語モデル(LLM)のトレーニング技術に触発され、YOLO26はSGDとMuon(Moonshot AIのKimi K2由来)を組み合わせたハイブリッドオプティマイザを利用しています。これにより、より安定したトレーニングダイナミクスとより速い収束が実現します。
  • ProgLoss + STAL: Progressive Loss Balancing (ProgLoss)とSmall-Target-Aware Label Assignment (STAL)は、小さなオブジェクトに対するパフォーマンスを大幅に向上させ、ドローン画像やリモートセンシングにとって重要な要素となります。

YOLO26についてさらに詳しく

YOLO11: 堅牢な前身

YOLO11はC3k2ブロックとSPPF(Spatial Pyramid Pooling - Fast)モジュールに基づいて構築されており、高い効率性を提供します。洗練されたC2PSAブロックとアテンションメカニズムを採用し、特徴抽出を強化しています。非常に効果的である一方で、NMS後処理への依存は、YOLO26のエンドツーエンドアプローチと比較して、推論中にわずかな計算オーバーヘッドを発生させます。

YOLO11の詳細について。

なぜエンドツーエンドが重要なのか

YOLO26におけるNMSの削除は、モデルの出力に必要な後処理コードが少なくなることを意味します。これにより、展開時のバグのリスクが軽減され、推論時間が検出されたオブジェクトの数に基づいて変動しないため、一貫したレイテンシが保証されます。

パフォーマンスベンチマーク

以下の表は、COCOデータセットにおける2つのモデル間のパフォーマンスの違いを強調しています。YOLO26は、精度(mAP)とCPU推論速度の両方で明確な優位性を示しています。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

メトリクス分析

  1. CPU推論速度: YOLO26nはYOLO11nと比較してCPU上で約43%高速です(38.9ms対56.1ms)。これにより、YOLO26はRaspberry Pi、モバイルデバイス、および標準CPUでのデプロイにおいて優れた選択肢となります。
  2. 精度 (mAP): あらゆるスケールにおいて、YOLO26は一貫してより高いMean Average Precisionを達成します。「nano」モデルはmAPが39.5から40.9へと大幅に向上し、より高速で優れたdetect品質を提供します。
  3. モデル効率: YOLO26は通常、より少ないパラメータとFLOPsでより良いパフォーマンスを発揮し、アーキテクチャのプルーニングとDFLヘッドの削除による効率向上を示しています。

トレーニングと最適化

両モデルは堅牢なUltralyticsエコシステムから恩恵を受けており、トレーニングをアクセスしやすく効率的にします。

  • 使いやすさ: YOLO26とYOLO11はどちらも同じ統合されたpython APIと CLIインターフェース. それらを切り替えることは、モデル文字列を〜から変更するのと同じくらい簡単です yolo11n.pt 宛先 yolo26n.pt.
  • トレーニング効率: YOLO26のMuSGDオプティマイザは、トレーニングの実行を安定させ、収束に必要なエポック数を削減する可能性があります。これにより、特にImageNetのような大規模データセットにおいて、計算コストと時間を節約できます。
  • メモリ要件: Ultralyticsモデルは、トランスフォーマーベースの代替モデルと比較して、低いメモリフットプリントで知られています。YOLO26は、冗長なヘッド計算を削除することでこれをさらに最適化し、コンシューマーグレードのGPUでより大きなバッチサイズを可能にします。

トレーニング例

Ultralytics Pythonパッケージを使用して最新のYOLO26モデルをトレーニングする方法は以下の通りです。

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

タスクの多様性とユースケース

両方のモデルファミリーは、detectsegment分類姿勢推定、および指向性物体検出 (OBB)を含む幅広いコンピュータービジョンタスクをサポートしています。

YOLO26の理想的なユースケース

  • エッジコンピューティング: 最大43%高速なCPU速度により、YOLO26はGPUリソースが利用できない環境におけるIoTデバイス、スマートカメラ、およびモバイルアプリケーションに最適です。
  • 小物体検出: ProgLossとSTALのおかげで、YOLO26は航空監視、品質検査、医療画像処理など、微細な詳細の検出が重要となるシナリオで優れています。
  • リアルタイムロボティクス: NMSフリー設計は決定論的なレイテンシを保証し、自律航法やロボット操作における制御ループにとって不可欠です。

YOLO11の理想的なユースケース

  • レガシーシステム: YOLO11アーキテクチャ用に既に最適化されているワークフローや、特定のポストプロセッシングパイプラインがNMS出力に合わせてハードコードされている場合、YOLO11は安定したサポート対象の選択肢であり続けます。
  • 汎用GPU推論: 強力なデータセンターGPU(T4など)では、YOLO11は競争力のあるパフォーマンスを発揮し、CPUレイテンシがそれほど問題にならないサーバーサイドのバッチ処理に適しています。

エコシステムとサポート

Ultralyticsモデルを使用する最大の利点の1つは、その周辺エコシステムです。YOLO26とYOLO11はどちらもUltralytics Platformに完全に統合されており、シームレスなモデル管理、可視化、およびデプロイメントを可能にします。

  • ドキュメンテーション: 包括的なガイドは、データアノテーションからモデルのエクスポートまで、すべてを網羅しています。
  • コミュニティ: GitHubDiscord上の活発なコミュニティは、開発者がサポートと共有知識にアクセスできることを保証します。
  • 統合: 両モデルは、ONNXOpenVINOTensorRTなどの形式への簡単なエクスポートをサポートしており、多様なハードウェア環境でのデプロイメントを容易にします。

結論

YOLO11は依然として非常に高性能なモデルですが、YOLO26は、効率性とアーキテクチャのシンプルさにおいて大きな飛躍を遂げています。そのエンドツーエンド設計、CPUレイテンシの削減、および小物体に対する精度の向上により、現代のコンピュータービジョンアプリケーションにとって優れた選択肢となっています。エッジにデプロイする場合でも、クラウドでトレーニングする場合でも、YOLO26は、現在利用可能な最高のパフォーマンスと使いやすさのバランスを提供します。

モデルの詳細

YOLO26 著者: Glenn Jocher および Jing Qiu
組織: Ultralytics
日付: 2026-01-14
GitHub | ドキュメント

YOLO11 著者: Glenn Jocher および Jing Qiu
組織: Ultralytics
日付: 2024-09-27
GitHub | ドキュメント

他の選択肢を探している開発者は、初期のエンドツーエンドコンセプトについてはYOLOv10を、またはオープンボキャブラリー検出タスクについてはYOLO-Worldを検討することもできます。


コメント