コンテンツにスキップ

YOLO26 vsYOLOv9:リアルタイム物体検出の次なる進化

コンピュータビジョンの分野は急速に進歩しており、新たなアーキテクチャが絶えず速度と精度の限界を押し広げている。本技術比較では、YOLO26とYOLOv9の差異を検証する。両モデルとも独自のアーキテクチャ革新を提供する一方で、性能面でのトレードオフ、導入可能性、ハードウェア要件を理解することは、次なるビジョンプロジェクトに適したツールを選択する上で極めて重要である。

YOLO26: エッジ最適化の高性能モデル

2026年初頭にリリースUltralytics 、デプロイ効率とモデルトレーニングの安定性において世代を超えた飛躍を実現します。ネイティブのエンドツーエンドフレームワークとして設計され、これまでエッジAIアプリケーションを悩ませてきたデプロイのボトルネックを直接解決します。

モデル詳細:

アーキテクチャとイノベーション

YOLO26はエンドツーエンドNMS設計を導入することで、後処理パイプラインを根本的に再設計しました。非最大抑制(NMS)の必要性を排除したことで、モデルは劇的に低い遅延変動性を実現しています。これにより、特にONNXなどのフレームワークへのエクスポート時において、モバイルやエッジプラットフォームへの展開が大幅に容易になります。 ONNXApple Core CoreMLなどのフレームワークへのエクスポート時に顕著です。

さらに、分布焦点損失 (DFL) の削除により、エクスポートプロセスが合理化され、低電力マイクロコントローラーとの互換性が向上します。学習の安定性を改善するため、YOLO26は、確率的勾配降下法 (SGD) とMuon (大規模言語モデルの学習における革新に触発されたもの) のハイブリッドである、新しいMuSGDオプティマイザーを統合しています。これにより、困難なデータセット全体で、収束が高速化され、より堅牢な特徴抽出が可能になります。

エッジデバイス推論

アーキテクチャの簡素化とDFLの削除により、YOLO26 CPU 最大43%高速化。これにより、ラズベリーパイNVIDIA Nanoのようなリソース制約のあるエッジデバイスに最適な選択肢となります。

ドローン空撮画像のようなシーンで非常に困難なアイテムをdetectするために、YOLO26は更新されたProgLoss + STAL損失関数を利用しています。これらは、小オブジェクト認識のrecallにおいて顕著な改善をもたらします。さらに、インスタンスsegmentation用のマルチスケールプロト、姿勢推定用のResidual Log-Likelihood Estimation (RLE)、およびOriented Bounding Boxes (OBB)をdetectするための特殊な角度損失など、タスク固有の機能強化を誇ります。

YOLO26についてさらに詳しく

YOLOv9: プログラマブル勾配情報

2024年初頭にYOLOv9 、ニューラルネットワークが学習段階で勾配流れを処理する方法に理論的な進歩YOLOv9 、パラメータ効率と深層特徴の保持に焦点を当てた。

モデル詳細:

アーキテクチャと強み

YOLOv9 プログラマブル勾配情報(PGI)と汎用効率的層集約ネットワーク(GELAN)の概念を中心にYOLOv9 。これらの概念は、深層ニューラルネットワークで頻繁に観察される情報ボトルネック問題に対処します。GELANは、フィードフォワードプロセスを通じて本質的な情報を保持することで、重み更新に使用される勾配が信頼性を維持することを保証します。 このアーキテクチャは高い精度を実現し、YOLOv9 ニューラルネットワーク理論および勾配経路最適化に関する学術研究における有力な候補としています。 PyTorch フレームワークを用いたニューラルネットワーク理論および勾配経路最適化の学術研究において有力な候補となっています。

制限事項

YOLOv9は優れたパラメータ効率にもかかわらず、バウンディングボックスの後処理に従来のNMSに大きく依存しており、エッジデバイスでの推論中に計算上のボトルネックを引き起こす可能性があります。さらに、公式リポジトリは主に物体検出に焦点を当てており、trackや姿勢推定のような特殊なタスクに適合させるには、かなりのカスタムエンジニアリングが必要です。

YOLOv9について詳しくはこちら

パフォーマンス比較

これらのモデルを実環境での展開に評価する際、精度(mAP)、推論速度、メモリ使用量のバランスが極めて重要である。Ultralytics 、トレーニング時と推論時の両方でメモリ要件が低いことで知られており、TransformerCUDA 代替モデル(例: RT-DETRよりもはるかに少ないCUDAメモリしか必要としません。

以下は、COCOデータセットにおけるYOLO26とYOLOv9のパフォーマンスの直接比較です。各列の最良値は太字で強調表示されています。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv9t64038.3-2.32.07.7
YOLOv9s64046.8-3.547.126.4
YOLOv9m64051.4-6.4320.076.3
YOLOv9c64053.0-7.1625.3102.1
YOLOv9e64055.6-16.7757.3189.0

注記:YOLOv9 CPU YOLOv9 。NMS によって大きく変動し、一般的にYOLO26のネイティブでNMS実装よりも遅いためです。

ユースケースと推奨事項

YOLO26とYOLOv9の選択は、特定のプロジェクト要件、デプロイ制約、およびエコシステムへの適合性によって決まります。

YOLO26を選択すべき時

YOLO26は以下に最適です:

  • NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
  • CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
  • 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。

YOLOv9を選択すべき時

YOLOv9 以下に推奨YOLOv9 :

  • 情報ボトルネック研究: プログラマブル勾配情報(PGI)および汎用効率的層集約ネットワーク(GELAN)アーキテクチャを研究する学術プロジェクトです。
  • 勾配フロー最適化研究: トレーニング中の深層ネットワーク層における情報損失の理解と軽減に焦点を当てた研究。
  • 高精度detectベンチマーク: YOLOv9の強力なCOCOベンチマーク性能が、アーキテクチャ比較の参照点として必要とされるシナリオ。

Ultralyticsの利点

モデルの選択は、単に精度ベンチマークを読むだけではありません。周囲のソフトウェアエコシステムが、データ収集から本番環境への移行速度を決定します。

使いやすさとエコシステム

The Ultralytics Python シームレスな「ゼロからヒーローへ」の体験を提供します。複雑なリポジトリのクローン作成や分散トレーニングスクリプトの手動設定の代わりに、開発者はパッケージをインストールできます。 pip すぐにトレーニングを開始します。活発にメンテナンスされている Ultralyticsエコシステム 頻繁な更新を保証し、機械学習プラットフォームとの自動統合を実現します。 Weights & Biases、そして広範なドキュメントを提供します。

Ultralytics

Ultralytics モデルを探索したい場合は、以下の比較もご検討ください YOLO11 または古典的な YOLOv8も検討してみてください。どちらもカスタムアプリケーション向けに非常に高い柔軟性を提供します。

多様な視覚タスクへの適応性

YOLOv9 主に物体検出エンジンYOLOv9 に対し、YOLO26は汎用的なビジョンツールです。単一の統一された構文を用いることで、物体検出からピクセル単位の正確な画像セグメンテーションや画像全体の分類へ容易に切り替えることができます。この汎用性により、異なるコンピュータビジョン機能向けに複数のばらばらなコードベースを維持する技術的負債が軽減されます。

効率的なトレーニングとデプロイメント

トレーニングUltralytics 基盤です。YOLO26は容易に入手可能な事前学習済み重みを活用し、かさばるビジョン・トランスフォーマーと比較して大幅に低いメモリ使用量を誇ります。一度トレーニングが完了すれば、組み込みのエクスポートパイプラインにより、最適化されたフォーマット(例: TensorRTTensorFlow などの最適化された形式へのワンクリック変換を可能にし、本番環境への移行を円滑にします。

コード例: YOLO26の始め方

YOLO26の実装は非常に簡単です。以下のPython 、事前学習済みモデルの読み込み、カスタムデータでの学習、Ultralytics を使用した推論の実行方法を示しています。

from ultralytics import YOLO

# Load the latest state-of-the-art YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 dataset utilizing the MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    device=0,  # Uses GPU 0, or use 'cpu' for CPU training
)

# Run an NMS-free inference on a sample image
predictions = model("https://ultralytics.com/images/bus.jpg")

# Display the bounding boxes and confidences
predictions[0].show()

YOLO26の速度、簡素化されたアーキテクチャ、および堅牢なエコシステムを活用することで、チームは、これまで以上に迅速かつ少ない技術的障壁で、高度なビジョンAIアプリケーションを市場に投入できます。


コメント