YOLO26 vsYOLOv9:リアルタイム物体検出の次なる進化
コンピュータビジョンの分野は急速に進歩しており、新たなアーキテクチャが絶えず速度と精度の限界を押し広げている。本技術比較では、YOLO26とYOLOv9の差異を検証する。両モデルとも独自のアーキテクチャ革新を提供する一方で、性能面でのトレードオフ、導入可能性、ハードウェア要件を理解することは、次なるビジョンプロジェクトに適したツールを選択する上で極めて重要である。
YOLO26: エッジ最適化の高性能モデル
2026年初頭にリリースUltralytics 、デプロイ効率とモデルトレーニングの安定性において世代を超えた飛躍を実現します。ネイティブのエンドツーエンドフレームワークとして設計され、これまでエッジAIアプリケーションを悩ませてきたデプロイのボトルネックを直接解決します。
モデル詳細:
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2026-01-14
- GitHub:Ultralytics リポジトリ
- ドキュメント:YOLO26 ドキュメント
アーキテクチャとイノベーション
YOLO26はエンドツーエンドNMS設計を導入することで、後処理パイプラインを根本的に再設計しました。非最大抑制(NMS)の必要性を排除したことで、モデルは劇的に低い遅延変動性を実現しています。これにより、特にONNXなどのフレームワークへのエクスポート時において、モバイルやエッジプラットフォームへの展開が大幅に容易になります。 ONNX やApple Core CoreMLなどのフレームワークへのエクスポート時に顕著です。
さらに、分布焦点損失(DFL)の除去によりエクスポートプロセスが効率化され、低消費電力マイクロコントローラーとの互換性が向上します。学習安定性を高めるため、YOLO26には新規開発のMuSGDオプティマイザーを統合しました。これは確率的勾配降下法(SGD)とミューオン(大規模言語モデル学習の革新に着想を得た手法)を融合したハイブリッド手法です。これにより、困難なデータセットにおいても収束が加速し、より堅牢な特徴抽出が実現されます。
エッジデバイス推論
アーキテクチャの簡素化とDFLの削除により、YOLO26 CPU 最大43%高速化。これにより、ラズベリーパイやNVIDIA Nanoのようなリソース制約のあるエッジデバイスに最適な選択肢となります。
ドローン空撮画像のようなシーンにおける検出が極めて困難な物体を検知するため、YOLO26は改良版ProgLoss + STAL損失関数を採用している。これにより微小物体認識の再現率が顕著に向上した。さらに、インスタンスセグメンテーション向けのマルチスケールプロトタイプ、姿勢推定向けの残差対数尤度推定(RLE)、向き付き境界ボックス(OBB)検出向けの専用角度損失など、タスク特化型の強化機能を備えている。
YOLOv9: プログラマブル勾配情報
2024年初頭にYOLOv9 、ニューラルネットワークが学習段階で勾配流れを処理する方法に理論的な進歩YOLOv9 、パラメータ効率と深層特徴の保持に焦点を当てた。
モデル詳細:
- 著者: Chien-Yao Wang and Hong-Yuan Mark Liao
- 組織: Institute of Information Science, Academia Sinica, Taiwan
- 日付: 2024-02-21
- Arxiv:YOLOv9
- GitHub:YOLOv9 リポジトリ
- ドキュメント:YOLOv9 ドキュメント
アーキテクチャと強み
YOLOv9 プログラマブル勾配情報(PGI)と汎用効率的層集約ネットワーク(GELAN)の概念を中心にYOLOv9 。これらの概念は、深層ニューラルネットワークで頻繁に観察される情報ボトルネック問題に対処します。GELANは、フィードフォワードプロセスを通じて本質的な情報を保持することで、重み更新に使用される勾配が信頼性を維持することを保証します。 このアーキテクチャは高い精度を実現し、YOLOv9 ニューラルネットワーク理論および勾配経路最適化に関する学術研究における有力な候補としています。 PyTorch フレームワークを用いたニューラルネットワーク理論および勾配経路最適化の学術研究において有力な候補となっています。
制限事項
優れたパラメータ効率にもかかわらず、YOLOv9 バウンディングNMS 大きくYOLOv9 、エッジデバイスでの推論時に計算上のボトルネックを生じさせる可能性がある。さらに、公式リポジトリは主に物体検出に焦点を当てており、追跡や姿勢推定といった特殊なタスクに適応させるには大幅なカスタマイズが必要となる。
パフォーマンス比較
これらのモデルを実環境での展開に評価する際、精度(mAP)、推論速度、メモリ使用量のバランスが極めて重要である。Ultralytics 、トレーニング時と推論時の両方でメモリ要件が低いことで知られており、TransformerCUDA 代替モデル(例: RT-DETRよりもはるかに少ないCUDAメモリしか必要としません。
以下は、COCO におけるYOLO26とYOLOv9 直接比較である。各列の最良値は太字で強調表示されている。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv9t | 640 | 38.3 | - | 2.3 | 2.0 | 7.7 |
| YOLOv9s | 640 | 46.8 | - | 3.54 | 7.1 | 26.4 |
| YOLOv9m | 640 | 51.4 | - | 6.43 | 20.0 | 76.3 |
| YOLOv9c | 640 | 53.0 | - | 7.16 | 25.3 | 102.1 |
| YOLOv9e | 640 | 55.6 | - | 16.77 | 57.3 | 189.0 |
注記:YOLOv9 CPU YOLOv9 。NMS によって大きく変動し、一般的にYOLO26のネイティブでNMS実装よりも遅いためです。
ユースケースと推奨事項
YOLOv9 、具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステムの好みにYOLOv9 。
YOLO26を選択すべき時
YOLO26は以下に最適です:
- NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
- CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
- 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。
YOLOv9を選択すべき時
YOLOv9 以下に推奨YOLOv9 :
- 情報ボトルネック研究:プログラマブル勾配情報(PGI)および汎用効率的層集約ネットワーク(GELAN)アーキテクチャを研究する学術プロジェクト。
- 勾配フロー最適化研究:深層ネットワーク層における学習中の情報損失の理解と軽減に焦点を当てた研究。
- 高精度検出ベンチマーク: YOLOv9強力なCOCO 性能が、アーキテクチャ比較の基準点として必要とされるシナリオ。
Ultralyticsの利点
モデルの選択は、精度ベンチマークを読むだけでは不十分です。周辺ソフトウェアのエコシステムが、データ収集から本番環境への移行をどれだけ迅速に進められるかを決定づけます。
使いやすさとエコシステム
The Ultralytics Python シームレスな「ゼロからヒーローへ」の体験を提供します。複雑なリポジトリのクローン作成や分散トレーニングスクリプトの手動設定の代わりに、開発者はパッケージをインストールできます。 pip そしてすぐに訓練を開始する。積極的に維持される Ultralyticsエコシステム 頻繁な更新を保証し、機械学習プラットフォームとの自動統合を実現します。 Weights & Biases、そして広範なドキュメントを提供します。
Ultralytics
Ultralytics モデルを探索したい場合は、以下の比較もご検討ください YOLO11 または古典的な YOLOv8も検討してみてください。どちらもカスタムアプリケーション向けに非常に高い柔軟性を提供します。
多様な視覚タスクへの適応性
YOLOv9 主に物体検出エンジンYOLOv9 に対し、YOLO26は汎用的なビジョンツールです。単一の統一された構文を用いることで、物体検出からピクセル単位の正確な画像セグメンテーションや画像全体の分類へ容易に切り替えることができます。この汎用性により、異なるコンピュータビジョン機能向けに複数のばらばらなコードベースを維持する技術的負債が軽減されます。
効率的な訓練と展開
トレーニングUltralytics 基盤です。YOLO26は容易に入手可能な事前学習済み重みを活用し、かさばるビジョン・トランスフォーマーと比較して大幅に低いメモリ使用量を誇ります。一度トレーニングが完了すれば、組み込みのエクスポートパイプラインにより、最適化されたフォーマット(例: TensorRT やTensorFlow などの最適化された形式へのワンクリック変換を可能にし、本番環境への移行を円滑にします。
コード例: YOLO26の始め方
YOLO26の実装は非常に簡単です。以下のPython 、事前学習済みモデルの読み込み、カスタムデータでの学習、Ultralytics を使用した推論の実行方法を示しています。
from ultralytics import YOLO
# Load the latest state-of-the-art YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset utilizing the MuSGD optimizer
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device=0, # Uses GPU 0, or use 'cpu' for CPU training
)
# Run an NMS-free inference on a sample image
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the bounding boxes and confidences
predictions[0].show()
YOLO26の高速性、簡素化されたアーキテクチャ、そして堅牢なエコシステムを活用することで、チームは高度なビジョンAIアプリケーションをこれまで以上に迅速に、技術的な障壁を少なくして市場に投入できます。