YOLO11 YOLO26:次世代ビジョンAIの進化
コンピュータビジョンの急速な進化は、速度、精度、導入効率の限界を絶えず押し広げている。リアルタイム物体検出の分野において、 Ultralytics は常に基準を確立しています。この技術比較では、大成功を収めた YOLO11 から最先端のYOLO26への移行を検証し、両者のアーキテクチャ、性能指標、最適な導入シナリオを分析します。
ドローン配送システムを構築する場合でも、グローバルなスマート製造パイプラインを最適化する場合でも、これら二つのモデルの微妙な違いを理解することが、堅牢で将来を見据えたAIソリューション構築に役立ちます。
モデル系統とエコシステム
両モデルは、直感的なAPI、継続的なメンテナンス、活発なコミュニティをUltralytics を受けています。これらは比類のない汎用性を提供し、オブジェクト検出、インスタンスセグメンテーション、画像分類、姿勢推定、オリエンテッドバウンディングボックス(OBB)タスクを標準で自然にサポートします。
YOLO11:確立された標準
2024年末にリリースされたYOLO11 、前世代の進歩をYOLO11 、生産環境における信頼性の高い主力製品としての地位を確立した。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:https://github.com/ultralytics/ultralytics
- ドキュメント:YOLO11ドキュメント
YOLO26: 新たなフロンティア
2026年初頭に導入されたYOLO26は、エッジコンピューティングとエンドツーエンドアーキテクチャにおけるパラダイムシフトを体現し、処理速度と統合の容易さにおいて大幅な改善を実現している。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2026-01-14
- GitHub:https://github.com/ultralytics/ultralytics
- ドキュメント:YOLO26 ドキュメント
データとデプロイメントの管理
YOLO11 Ultralytics 完全に統合されており、データセットの注釈付け、クラウドトレーニング、フリート監視のためのシームレスなノーコードワークフローを提供します。
アーキテクチャの革新
YOLO11 長年コンピュータビジョンを支えてきた従来の後処理手法にYOLO11 一方、YOLO26はボトルネックを解消するために設計された複数の構造的ブレークスルーを導入している。
エンドツーエンドNMSフリー設計
YOLO26における最も重要な改良点の1つは、ネイティブのエンドツーエンドアーキテクチャである。これにより、Non-Maximum Suppression(NMS)後処理が不要となる。この概念は最初に YOLOv10で初めて導入された概念である。NMS 回避することで、デプロイメントパイプラインがNMS 簡素化され、自律走行アルゴリズムのようなリアルタイムアプリケーションに不可欠な一貫したレイテンシが保証される。
エッジ最適化のためのDFL除去
YOLO26は分布焦点損失(DFL)を削除した。DFLYOLO11 微細なYOLO11 有用であったが、これを削除することでネットワークのエクスポートグラフが簡素化された。この変更により低電力ハードウェアとの互換性が向上し、YOLO26はラズベリーパイや NVIDIA といったエッジデバイス上で絶対的な性能を発揮する。
MuSGD オプティマイザ
大規模言語モデル(LLM)の学習メカニズム、特にMoonshot AIのKimi K2に着想を得たYOLO26は、革新的なMuSGDオプティマイザーを採用している。確率的勾配降下法(SGD)とミューオンを融合したこの手法は、従来アーキテクチャで用いられる標準的なAdamW よりもはるかに高速に収束し、驚くほど安定した学習実行を実現する。
高度な損失関数
YOLO26はProgLoss + STAL(漸進的損失とスケール対応タスクアラインメント学習)を組み込んでいます。この組み合わせにより、小型で密集した物体の検出が劇的に改善されます。 さらに、YOLO26ではタスク特化型の強化を導入しています:セマンティックセグメンテーション専用のマルチスケールプロトタイプ、複雑な人体姿勢推定のための残差対数尤度推定(RLE)、およびOBB検出タスクにおける境界問題を軽減するための専用角度損失です。
パフォーマンス比較
これらのモデルを評価する際、パラメータ数、計算複雑度(FLOPs)、速度のバランスがハードウェア選択を決定する。YOLO26は特にCPU 速度を重視しており、前世代モデルと比較して最大43%高速CPU を実現している。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
実証されたように、YOLO26 Nano(YOLO26n)ONNX を使用することで、CPU 時間を56.1msから38.9msに短縮しながら、精度を大幅に向上させている。
最高速度でのエクスポート
これらのモデルから性能を最大限に引き出すには、 TensorRT を使用してNVIDIA 。 OpenVINO を使用してIntel 。YOLO26のNMS設計により、このエクスポートプロセスはこれまで以上にスムーズです。
ユースケースと実世界アプリケーション
YOLO11 YOLO26の選択は、主に特定のインフラとプロジェクト目標によって決まります。
エッジコンピューティングとIoT
電力やハードウェアに制約のあるアプリケーション(ドローンによるスマート農業監視やローカル警報システムなど)において、YOLO26は圧倒的な優位性を誇ります。DFLの廃止とCPU の向上により、専用GPUを持たないデバイスでも複雑なビジョンモデルを実行可能となり、高いフレームレートを維持できます。
クラウドとエンタープライズ規模
YOLO11 大規模なサーバーファームがそのtensor 最適化されているエンタープライズソリューションにおいては、依然として優れた選択肢です。クラウドベースの動画解析や大規模メディア処理パイプラインにおいて、その特定の出力フォーマットと深く統合されている環境では、完璧に機能します。
複雑なマルチタスク
プロジェクトで微小物体に対するピンポイント精度が求められる場合(例:回路基板の欠陥検出や航空写真における遠方車両の追跡)、YOLO26の ProgLoss + STAL実装は、こうした困難なエッジケースにおいてリコール率と精度を顕著に向上させます。
トレーニング効率とメモリ要件
Ultralytics 主な利点は、トレーニング中のメモリ使用量が非常に少ないことです。大規模なビジョン・トランスフォーマーとは異なり RT-DETR や旧式の YOLOv8 のような大規模なCUDA とは異なり、YOLO11 YOLO26YOLO11 どちらも、一般消費者向けハードウェア上で効率的にトレーニングできるよう最適化されています。
MuSGDオプティマイザーをYOLO26に統合することで、モデルが最適な重みをより迅速に見つけられるようになり、GPU とクラウドコンピューティングコストを削減することで、この効果がさらに強化されます。
以下は、Python を使用して最新のYOLO26モデルをいかに簡単にトレーニングできるかを示す簡単な例です:
from ultralytics import YOLO
# Initialize the YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The MuSGD optimizer and efficient memory management are handled automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)
# Run a quick validation to verify the mAP metrics
metrics = model.val()
# Export the trained model to ONNX for fast CPU inference
model.export(format="onnx")
代替アーキテクチャの探求
YOLO26はリアルタイム検出の頂点を代表しますが、Ultralytics 内で他のモデルを探索することは有益です。レガシー環境に縛られているユーザーにとっては、 YOLOv5 といった以前のアーキテクチャでも堅牢な性能を発揮します。事前にクラス定義が不可能なゼロショット環境では、YOLOテキストプロンプトによるオープンボキャブラリ検出を提供します。
結論
YOLO11 単なる段階的な更新ではなく、実稼働環境におけるリアルタイム物体検出モデルの動作構造そのものを再構築したものです。複雑な後処理ステップを排除し、エッジファースト実行を最適化したYOLO26は、現代の開発者にとって最良の選択肢として際立っています。 堅牢なUltralytics と包括的なドキュメントに支えられたYOLO26へのアップグレードは、ほぼあらゆるコンピュータビジョンタスクにおいて、より迅速なデプロイメント、安定したトレーニング、そしてSOTA精度を保証します。