YOLO11 vs. YOLO26: リアルタイムビジョンAIの進化
コンピュータービジョンの分野は急速に進歩しており、Ultralyticsは最先端の物体検出モデルでその先頭を走り続けています。この比較では、2024年後半にリリースされたYOLO11と、2026年1月にリリースされた画期的なYOLO26のアーキテクチャの進化、パフォーマンス指標、および実用的なアプリケーションを探ります。両モデルはそれぞれのリリース時点でのビジョンAIの頂点を表していますが、YOLO26はエッジデプロイメントにおける効率と速度を再定義する重要なアーキテクチャの変更を導入しています。
モデル概要
YOLO11
著者: Glenn JocherおよびJing Qiu
組織:Ultralytics
日付: 2024-09-27
GitHub:Ultralytics Repository
ドキュメント:YOLO11 Documentation
YOLO11はYOLOシリーズにおける重要な改良を示し、YOLOv8と比較してパラメーターを22%削減しつつ、detect精度を向上させました。速度と精度を両立させた強化されたアーキテクチャ設計を導入し、物体検出からインスタンスsegmentationまで、多様なコンピュータービジョンタスクにおいて信頼できる選択肢となっています。
YOLO26
著者: Glenn JocherおよびJing Qiu
組織:Ultralytics
日付: 2026-01-14
GitHub:Ultralytics Repository
ドキュメント:YOLO26 Documentation
YOLO26は、Non-Maximum Suppressionの後処理を不要にするネイティブなエンドツーエンドNMSフリー設計により、パラダイムシフトを象徴しています。YOLOv10で初めて開拓されたこの革新は、デプロイメントパイプラインを大幅に簡素化し、レイテンシを削減します。YOLO26はエッジコンピューティング向けに特別に最適化されており、最大43%高速なCPU推論を実現し、LLMトレーニングの革新に触発されたSGDとMuonのハイブリッドであるMuSGD Optimizerのような新しいトレーニング技術を組み込んでいます。
エンドツーエンドのレイテンシーの優位性
NMSステップを排除することで、YOLO26はシーン内で検出されるオブジェクトの数に関わらず、一貫した推論時間を提供します。これは、自動運転のようなリアルタイムアプリケーションにおいて、後処理のスパイクが危険な遅延を引き起こす可能性があるため、極めて重要です。
パフォーマンス比較
下の表は、YOLO11に対するYOLO26のパフォーマンス向上を示しています。CPU速度の大幅な向上に注目してください。これにより、YOLO26はRaspberry Piや携帯電話など、専用GPUを持たないデバイスにとって非常に優れた能力を発揮します。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
アーキテクチャの詳細
YOLO11アーキテクチャ
YOLO11はCSPNetバックボーンの概念に基づいて構築され、特徴抽出層を洗練してより詳細な情報を捉えるようにしました。標準的なアンカーフリーのdetectヘッドを採用し、バウンディングボックス回帰の精度を高めるためにDistribution Focal Loss (DFL)に依存していました。非常に効果的でしたが、NMSへの依存は、シーンの密度によって推論速度が変動する可能性を意味し、これはスマートシティ監視における一般的なボトルネックでした。
YOLO26アーキテクチャ
YOLO26は、効率と安定性を追求したいくつかの抜本的な変更を導入しています。
- NMSフリーのエンドツーエンド: モデルはトレーニング中に1対1のマッチングで固定されたバウンディングボックスのセットを予測し、推論中のヒューリスティックなNMSステップを排除します。
- DFLの排除: Distribution Focal Lossは、ONNXやTensorRTのようなフォーマットへのエクスポートプロセスを簡素化するために削除され、低電力エッジデバイスとの互換性が向上しました。
- MuSGDオプティマイザ: Moonshot AIのKimi K2と大規模言語モデル (LLM) のトレーニングに触発されたこのハイブリッドオプティマイザは、SGDとMuonを組み合わせることで、より速い収束とより安定したトレーニング実行を保証し、大規模なビジョン学習でしばしば見られる「損失のスパイク」を低減します。
- ProgLoss + STAL: 新しい損失関数 (Progressive LossとSoft-Target Assignment Loss) は、小さなオブジェクトの認識を特にターゲットとし、航空画像解析やIoTセンサーに大きな後押しを提供します。
タスクの汎用性
両モデルはUltralyticsエコシステム内で幅広いタスクをサポートしており、開発者はパイプラインを書き直すことなくモデルを切り替えることができます。
- 検出 (Detection): 標準的なバウンディングボックス検出。
- セグメンテーション (Segmentation): ピクセルレベルのマスク。YOLO26は、より良いマスク品質のために、特定のセマンティックセグメンテーション損失とマルチスケールプロトを追加しています。
- 分類: 画像全体のカテゴリ分類。
- 姿勢推定 (Pose Estimation): キーポイント検出。YOLO26は、複雑なポーズにおけるより高い精度を実現するためにResidual Log-Likelihood Estimation (RLE)を利用しており、スポーツ分析に有益です。
- OBB (Oriented Bounding Box): 航空写真や傾斜したオブジェクトのための回転バウンディングボックス。YOLO26は、衛星画像でよく見られる境界の不連続性の問題を解決するために、特殊な角度損失を特徴としています。
学習と使用法
Ultralyticsエコシステムの特長の一つは、統一されたAPIです。YOLO11を使用している場合でも、YOLO26にアップグレードする場合でも、コードは実質的に同じままであり、技術的負債を最小限に抑えます。
pythonの例
YOLO11で使用されていたのと同じ使い慣れたインターフェースを使用して、新しいYOLO26モデルをトレーニングする方法を以下に示します。この例では、テストに最適な8枚の小さな画像データセットであるCOCO8データセットでのトレーニングを示しています。
from ultralytics import YOLO
# Load the latest YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model
# The MuSGD optimizer is handled automatically internally for YOLO26 models
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device="cpu", # Use '0' for GPU
)
# Run inference
results = model("https://ultralytics.com/images/bus.jpg")
results[0].show()
CLIの例
コマンドラインインターフェースも同様に合理化されており、迅速な実験とモデルのベンチマークを可能にします。
# Train YOLO26n on the COCO8 dataset
yolo train model=yolo26n.pt data=coco8.yaml epochs=100 imgsz=640
# Export to ONNX for simplified edge deployment
yolo export model=yolo26n.pt format=onnx
理想的なユースケース
YOLO11を選択する場合:
- YOLO11用に高度に最適化された既存のプロダクションパイプラインがあり、新しいアーキテクチャの検証時間を確保できない場合。
- お使いのデプロイハードウェアがYOLO11の層構造に特化した最適化を行っており、YOLO26向けにまだ更新されていない場合。
YOLO26を選択する場合:
- エッジデプロイメントが重要: NMSとDFLの削除により、YOLO26はCPUサイクルが貴重なAndroid/iOSアプリや組み込みシステムにとって優れた選択肢となります。
- 小さなオブジェクトの検出: ProgLossおよびSTAL機能により、農業における害虫の特定やドローン映像内の遠隔オブジェクトの検出において、その性能が大幅に向上します。
- トレーニングの安定性: 大規模なカスタムデータセットでトレーニングを行っており、発散の問題を経験したことがある場合、YOLO26のMuSGDオプティマイザはより安定したトレーニングパスを提供します。
- 最もシンプルなエクスポート: エンドツーエンドアーキテクチャは、複雑な外部NMSプラグインを必要とせずに、CoreMLやTensorRTのような形式へよりクリーンにエクスポートされます。
Ultralyticsファミリー内の他のオプションを検討している開発者向けに、YOLOv10(エンドツーエンドYOLOの前身)やYOLO-World(オープンボキャブラリ検出用)のようなモデルも完全にサポートされています。
結論
YOLO11は堅牢で高性能なモデルである一方、YOLO26はリアルタイムコンピュータビジョンにおける可能性の新たな基準を確立します。LLMにインスパイアされたトレーニングダイナミクスを統合し、NMSフリー設計によって推論パイプラインを簡素化することで、Ultralyticsはより高精度であるだけでなく、実世界でのデプロイも大幅に容易なモデルを開発しました。
Ultralyticsエコシステムは、シームレスなアップグレードを保証します。トレーニング中のメモリ要件が低く、推論中のCPU速度が速いため、YOLO26は2026年のすべての新規プロジェクトにおける推奨される出発点となります。