YOLO26 vsYOLOv5:物体検出における世代を超えた飛躍
コンピュータビジョンの進化は、速度・精度・アクセシビリティの絶え間ない追求によって定義されてきた。適切なアーキテクチャの選択は、あらゆるAIプロジェクトの成功に不可欠である。この包括的なガイドでは、Ultralytics発表した二つの画期的なリリース——先駆的な YOLOv5 と画期的なYOLO26を比較検討します。両者ともリアルタイム物体検出の分野に多大な影響を与えた一方で、その基盤技術はニューラルネットワークが視覚データを処理する方法における大きなパラダイムシフトを反映しています。
モデル概要
アーキテクチャの微妙な違いに深く入る前に、両モデルの基礎的な詳細をまず整理しておきましょう。
YOLO26の詳細:
- 著者:グレン・ヨーカーとチン・チウ
- 組織: Ultralytics
- 日付: 2026年1月14日
- GitHub:ultralytics
- ドキュメント:YOLO26 ドキュメント
YOLOv5 :
- 著者: グレン・ヨーカー
- 組織: Ultralytics
- 日付: 2020年6月26日
- GitHub:yolov5
- ドキュメント:YOLOv5
その他の選択肢の検討
このガイドはYOLO26とYOLOv5に焦点を当てていますが、レガシーシステムを移行する開発者は以下の比較にも関心を持つかもしれません YOLO11 や、先駆的なNMSアーキテクチャを採用した YOLOv10の比較にも興味を持つかもしれません。どちらも特定のデプロイ環境において優れた足がかりを提供します。
アーキテクチャの革新
YOLOv5 の6年間の隔たりは、深層学習研究における飛躍的な進歩を象徴している。YOLOv5 PyTorch を視覚モデルに普及させ、業界標準となった高度に最適化されたアンカーベース検出メカニズムを提供した。しかし、後処理におけるノンマキシマム抑制(NMS)への依存度が高く、リソース制約のあるデバイスでは遅延ボトルネックを引き起こす可能性があった。
YOLO26は、エンドツーエンドNMS設計により推論パイプラインを完全に再構築しました。NMS の必要性を排除することで、YOLO26はより高速で大幅に簡素化されたデプロイロジックを実現しています。この概念YOLOv10 初めて導入YOLOv10 本モデルで完成形に至りました。 さらに、YOLO26はDFL除去(分布焦点損失)を特徴としており、出力ヘッドを大幅に簡素化します。これにより、モデルを ONNX や TensorRT へのエクスポートを非常にスムーズにし、エッジデバイスや低消費電力デバイスとの優れた互換性を保証します。
トレーニング中、YOLO26は最先端のMuSGDオプティマイザーを採用している。これはMoonshot AIのKimi K2に着想を得た、SGD ハイブリッド手法である。これにより大規模言語モデル(LLM)のトレーニング技術革新がコンピュータビジョン分野にもたらされ、YOLOv5で使用されていたAdamW と比較して、極めて安定したトレーニングと大幅な収束速度の向上が保証される。
パフォーマンスとメトリクス
モデル評価においては、平均精度(mAP)と推論速度のバランスが実運用における実用性を決定する。YOLO26はハイエンドGPUとエッジCPUの両方に対してネイティブに最適化されている。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
ベンチマークは驚異的な改善を示している。例えば、 YOLO26n 40.mAP を達成したのに対し YOLOv5n28.0でありながら、同時に提供している 最大43%CPUこれにより、YOLO26は組み込みデプロイメントにおいて圧倒的に優れている。 Raspberry Pi またはモバイルデバイス。NanoスケールではYOLOv5 TensorRT GPU でわずかに優位YOLOv5 一方、精度面でのトレードオフはYOLO26に大きく有利である。
トレーニングエコシステムと使いやすさ
両モデルとも、整備Ultralytics から多大な恩恵を受けています。合理化されたPython 、充実したドキュメント、活発なコミュニティサポートにより、「ゼロからヒーローへ」の体験を提供します。しかしYOLO26は、トレーニング効率を新たな次元へと引き上げます。
Ultralytics 、トレーニング中にトランスフォーマーを多用する代替モデルよりも一貫して大幅にCUDA 必要とします。YOLO26はProgLoss + STAL損失関数によりこの特性をさらに強化します。これらの進歩により、メモリオーバーヘッドを肥大化させることなく、小規模物体認識において顕著な改善がもたらされます。
from ultralytics import YOLO
# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)
# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
このシンプルなスクリプトにより、開発者はカスタムデータセットを迅速に反復処理でき、データ取り込みから本番環境対応モデルへの移行をシームレスに行えます。
デプロイメントを容易に
Ultralytics を使用すると、トレーニング済みのYOLO26モデルを自動的に以下の形式にエクスポートできます CoreMLTensorFlow 、変換コードを1行も書くことなく自動的にエクスポートできます。
汎用性と理想的な使用例
YOLOv5の使用タイミング
YOLOv5 レガシーシステム向けの信頼性の高い主力モデルYOLOv5 。アンカーベースの出力を強く依存する既存の産業用パイプラインをお持ちの場合、あるいは成熟した固定化されたTensorRT を搭載したNVIDIA デバイスで推論を実行している場合、YOLOv5 安定性が高く、詳細なドキュメントが整備されたソリューションYOLOv5 。
YOLO26の使用タイミング
YOLO26は現代のコンピュータビジョンプロジェクトにおける決定的な選択肢です。その汎用性は前世代をはるかに凌駕しています。YOLOv5 検出(後期のセグメンテーション追加を含む)に焦点を当てているのに対し、YOLO26はインスタンスセグメンテーション、姿勢推定、画像分類、およびオリエンテッドバウンディングボックス(OBB)に対する深いネイティブサポートを提供します。
YOLO26は、タスク特化型の改良を導入しています。具体的には、特化したセマンティックセグメンテーション損失、超高精度姿勢キーポイントのための残差対数尤度推定(RLE)、および境界問題の解決に向けたOBB用の高度な角度損失などが挙げられます。
- エッジIoTとロボティクス: NMSアーキテクチャと43%高速化されたCPU 、YOLO26はリアルタイムのロボットナビゲーションやスマートホームカメラに最適です。
- 航空画像:ProgLossとSTALの強化により、ドローンからの微小物体検出(駐車場の車両や農地の作物など)が大幅に信頼性を高めました。
- リアルタイム動画解析:スポーツ中継における選手の追跡から交通流の監視まで、YOLO26の性能バランスはフレーム落ちを起こさずに高いリコール率を保証します。
究極的に、Ultralytics アクセシブルで高性能なエコシステムへのUltralytics 、YOLOv5 移行は摩擦なく実現され、研究者と開発者の双方にとって最先端の能力を解き放つ。