コンテンツにスキップ

YOLO26 vsYOLOv5:物体検出における世代を超えた飛躍

コンピュータビジョンの進化は、速度・精度・アクセシビリティの絶え間ない追求によって定義されてきた。適切なアーキテクチャの選択は、あらゆるAIプロジェクトの成功に不可欠である。この包括的なガイドでは、Ultralytics発表した二つの画期的なリリース——先駆的な YOLOv5 と画期的なYOLO26を比較検討します。両者ともリアルタイム物体検出の分野に多大な影響を与えた一方で、その基盤技術はニューラルネットワークが視覚データを処理する方法における大きなパラダイムシフトを反映しています。

モデル概要

アーキテクチャのニュアンスに深く踏み込む前に、両モデルの基本的な詳細を確立しましょう。

YOLO26の詳細:

YOLO26についてさらに詳しく

YOLOv5 :

YOLOv5について詳しくはこちら

その他の選択肢の検討

このガイドはYOLO26とYOLOv5に焦点を当てていますが、レガシーシステムを移行する開発者は以下の比較にも関心を持つかもしれません YOLO11 や、先駆的なNMSアーキテクチャを採用した YOLOv10の比較にも興味を持つかもしれません。どちらも特定のデプロイ環境において優れた足がかりを提供します。

アーキテクチャの革新

YOLOv5 の6年間の隔たりは、深層学習研究における飛躍的な進歩を象徴している。YOLOv5 PyTorch を視覚モデルに普及させ、業界標準となった高度に最適化されたアンカーベース検出メカニズムを提供した。しかし、後処理におけるノンマキシマム抑制(NMS)への依存度が高く、リソース制約のあるデバイスでは遅延ボトルネックを引き起こす可能性があった。

YOLO26は、エンドツーエンドNMS設計により推論パイプラインを完全に再構築しました。NMS の必要性を排除することで、YOLO26はより高速で大幅に簡素化されたデプロイロジックを実現しています。この概念YOLOv10 初めて導入YOLOv10 本モデルで完成形に至りました。 さらに、YOLO26はDFL除去(分布焦点損失)特徴としており、出力ヘッドを大幅に簡素化します。これにより、モデルを ONNXTensorRT へのエクスポートを非常にスムーズにし、エッジデバイスや低消費電力デバイスとの優れた互換性を保証します。

トレーニング中、YOLO26は最先端のMuSGD Optimizerを採用しています。これはMoonshot AIのKimi K2に触発されたSGDとMuonのハイブリッドです。これにより、LLMトレーニングの革新がコンピュータビジョン分野にもたらされ、YOLOv5で使用されていた従来のSGDやAdamWオプティマイザと比較して、非常に安定したトレーニングと大幅に高速な収束が保証されます。

パフォーマンスとメトリクス

モデル評価においては、平均精度(mAP)と推論速度のバランスが実運用における実用性を決定する。YOLO26はハイエンドGPUとエッジCPUの両方に対してネイティブに最適化されている。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

ベンチマークは驚異的な改善を示している。例えば、 YOLO26n 40.9のmAPを達成し、〜と比較して YOLOv5nの28.0を、同時に提供しながら 最大43%CPU。これにより、YOLO26は、次のような組み込みデプロイメントにおいて、はるかに優れています。 Raspberry Pi またはモバイルデバイス。NanoスケールではYOLOv5 TensorRT GPU でわずかに優位YOLOv5 一方、精度面でのトレードオフはYOLO26に大きく有利である。

トレーニングエコシステムと使いやすさ

両方のモデルは、十分に維持されたUltralyticsエコシステムから多大な恩恵を受けています。これらは、合理化されたPython API、広範なドキュメント、および活発なコミュニティサポートにより、「ゼロからヒーロー」の体験を提供します。しかし、YOLO26はトレーニング効率を新たなレベルに引き上げます。

Ultralytics 、トレーニング中にトランスフォーマーを多用する代替モデルよりも一貫して大幅にCUDA 必要とします。YOLO26はProgLoss + STAL損失関数によりこの特性をさらに強化します。これらの進歩により、メモリオーバーヘッドを肥大化させることなく、小規模物体認識において顕著な改善がもたらされます。

from ultralytics import YOLO

# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)

# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

このシンプルなスクリプトにより、開発者はカスタムデータセットを迅速に反復処理でき、データ取り込みから本番環境対応モデルへの移行をシームレスに行えます。

デプロイメントを容易に

Ultralytics を使用すると、トレーニング済みのYOLO26モデルを自動的に以下の形式にエクスポートできます CoreMLTensorFlow 、変換コードを1行も書くことなく自動的にエクスポートできます。

汎用性と理想的な使用例

YOLOv5の使用タイミング

YOLOv5 レガシーシステム向けの信頼性の高い主力モデルYOLOv5 。アンカーベースの出力を強く依存する既存の産業用パイプラインをお持ちの場合、あるいは成熟した固定化されたTensorRT を搭載したNVIDIA デバイスで推論を実行している場合、YOLOv5 安定性が高く、詳細なドキュメントが整備されたソリューションYOLOv5 。

YOLO26の使用タイミング

YOLO26は現代のコンピュータビジョンプロジェクトにおける決定的な選択肢です。その汎用性は前世代をはるかに凌駕しています。YOLOv5 検出(後期のセグメンテーション追加を含む)に焦点を当てているのに対し、YOLO26はインスタンスセグメンテーション姿勢推定画像分類およびオリエンテッドバウンディングボックス(OBB)に対する深いネイティブサポートを提供します。

YOLO26は、タスク特化型の改良を導入しています。具体的には、特化したセマンティックセグメンテーション損失、超高精度姿勢キーポイントのための残差対数尤度推定(RLE)、および境界問題の解決に向けたOBB用の高度な角度損失などが挙げられます。

  • エッジIoTとロボティクス: NMSフリーアーキテクチャと43%高速なCPU推論により、YOLO26はリアルタイムロボットナビゲーションやスマートホームカメラに理想的です。
  • Aerial Imagery: ProgLoss + STALの強化により、駐車場内の車両や農地の作物など、ドローンからの微小なオブジェクトの検出が大幅に信頼性が向上します。
  • リアルタイムビデオ分析: スポーツ放送でのアスリートのtrackや交通量の監視など、YOLO26のパフォーマンスバランスは、フレームを落とすことなく高い再現率を保証します。

究極的に、Ultralytics アクセシブルで高性能なエコシステムへのUltralytics 、YOLOv5 移行は摩擦なく実現され、研究者と開発者の双方にとって最先端の能力を解き放つ。


コメント