コンテンツにスキップ

YOLOv5 YOLO26:リアルタイム物体検出における世代を超えた飛躍

コンピュータビジョンの進化は、より高速で、より正確で、よりアクセスしやすいモデルを追求する継続的な努力によって定義されてきた。比較する際に Ultralytics YOLOv5 を比較Ultralytics 、堅牢なレガシーシステムと最先端の現代AI導入との間のギャップを埋めるパラダイムシフトが明らかになる。

このガイドでは、両アーキテクチャの包括的な技術的分析を提供し、そのパフォーマンス指標、構造上の差異、および理想的な導入シナリオを明らかにします。

モデルの概要

YOLOv5:産業の主力

2020年にリリースされたYOLOv5 、物体検出のアクセシビリティにYOLOv5 。アーキテクチャをネイティブに PyTorch フレームワークへネイティブ移行することで、開発者に前例のない「ゼロからヒーローへ」の体験を提供しました。

YOLOv5 、高度に維持管理されたUltralytics 基盤をYOLOv5 。積極的なデータ拡張技術、効率的なトレーニングループ、そしてCoreMLなどのエッジフォーマットへの高度に最適化されたエクスポートパスを導入しました。 CoreMLONNXといったエッジフォーマットへの高度に最適化されたエクスポートパスを導入しました。その使いやすさとトレーニング時の低メモリ要件により、世界中のスタートアップや研究者にとって欠かせない存在となりました。

YOLOv5について詳しくはこちら

YOLO26:次世代ビジョンAIの標準

2026年1月に目を向けると、Ultralytics YOLO26はリアルタイムビジョンAIの頂点を表します。これは、YOLOv8YOLO11といった中間世代から得られた教訓をネイティブに統合し、大規模言語モデル(LLM)のトレーニングに触発された大規模なブレークスルーを導入しています。

YOLO26は性能バランスの新たな基準を打ち立て、最先端の精度を提供すると同時に、エッジコンピューティングシナリオを支配するよう明示的に設計されています。

YOLO26についてさらに詳しく

Ultralytics

古いコードベースを移行する場合、YOLOv5 YOLO11との比較も参考になるでしょう。YOLO11は姿勢推定や方向付きバウンディングボックス(OBB)など多様なタスクへの初期サポートを導入した前世代モデルです。

YOLO26におけるアーキテクチャのブレークスルー

YOLOv5 アンカーベースの検出ヘッドと標準的な損失関数にYOLOv5 に対し、YOLO26は内部メカニズムを完全に刷新し、デプロイメントのボトルネックを解消している。

  1. エンドツーエンドのNMSフリー設計: 最も重要な違いは、YOLO26のネイティブなエンドツーエンドアーキテクチャです。冗長なバウンディングボックスをフィルタリングするために手動のNon-Maximum Suppression (NMS)を必要とするYOLOv5とは異なり、YOLO26はこの後処理ステップを完全に排除します。これにより、決定論的な推論レイテンシが保証され、C++や組み込みハードウェアへの統合が劇的に簡素化されます。
  2. DFLの削除: YOLO26ではDistribution Focal Loss (DFL) が削除されています。このアーキテクチャの選択により、モデルのエクスポートが大幅に簡素化され、複雑な演算子で問題が発生しやすい低消費電力エッジデバイスやマイクロコントローラーとの互換性が向上します。
  3. MuSGDオプティマイザ: Moonshot AIのKimi K2からヒントを得て、YOLO26はSGDとMuonのハイブリッドであるMuSGDオプティマイザを採用しています。これにより、LLMトレーニングで見られる安定性と高速な収束がコンピュータビジョンにもたらされ、トランスフォーマーを多用するモデルと比較して、メモリ使用量が少なく、トレーニングサイクルが高速になります。
  4. ProgLoss + STAL: YOLO26は高度なProgLossおよびSTAL関数を利用し、小さくて密なオブジェクトをdetectする能力を大幅に向上させています。これはYOLOv5にとって歴史的な課題でした。

パフォーマンス比較

COCO におけるモデル比較において、YOLO26は精度(mAP)において大幅な改善を示すと同時に、パラメータ数を削減し、CPU 速度を向上させている。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

注記:YOLO26 Nano(YOLO26n)は、DFLの除去とNMSにより最大43%高速CPU を実現しつつ、YOLOv5nの28.0mAP驚異的な40.9mAP を達成しています。

汎用性とタスクサポート

YOLOv5 主に物体検出でYOLOv5 。後続のアップデートで基本的なセグメンテーション機能が追加されましたが、YOLOv26は統合型マルチタスクエンジンとして一から構築されました。

YOLO26は本質的に以下をサポートします:

  • インスタンスセグメンテーション: タスク固有のマルチスケールプロトとセマンティックsegmentation損失を特徴とします。
  • 姿勢推定: 高精度なキーポイント検出のために残差対数尤度推定 (RLE) を利用。
  • Oriented Bounding Boxes (obb): 境界不連続性の問題を解決するための特殊な角度損失を含み、衛星画像解析に不可欠です。
  • 画像分類: 標準的な全画像カテゴリ分類。

エコシステム統合

両方のモデルはUltralytics Platformの恩恵を受け、シームレスなデータアノテーション、自動ハイパーパラメータチューニング、ワンクリッククラウドデプロイメントを提供します。しかし、YOLO26は最新のAPI構造を最大限に活用しています。

使用方法とコード例

Ultralytics Python モデル間の切り替えを驚くほど簡単にします。両モデルが同じよく整備されたエコシステムを共有しているため、レガシーなYOLOv5 をYOLO26に更新するには、重みファイルを変更するだけで済みます。

pythonの例

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

CLIの例

YOLO26は、コマンドラインから直接デプロイできます。 TensorRT 統合により、最大GPU を実現できます:

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

理想的なユースケース

YOLO26を選択する場合

あらゆる最新のコンピュータビジョンプロジェクトにおいて、YOLO26は議論の余地のない推奨モデルです

  • エッジAIおよびIoT: 43%高速なCPU推論とDFLの削除により、Raspberry Piやモバイルデバイスへのデプロイに最適です。
  • 高速パイプライン: NMSフリーのアーキテクチャは、安定した予測可能なレイテンシを保証し、これは自律ロボットやリアルタイムのセキュリティ警報システムにとって極めて重要です。
  • 複雑なシナリオ:アプリケーションが小さなオブジェクトのtrack(例:ドローン監視)や回転するオブジェクト(obb)を必要とする場合、YOLO26の高度な損失関数(ProgLoss + STAL)は大きな精度上の優位性をもたらします。

YOLOv5を選択すべき時

  • レガシーシステム: 本番環境がYOLOv5の特定のアンカー生成またはNMS解析ロジックにハードコードされた依存関係を持っている場合、移行には短いリファクタリング期間が必要になる可能性があります。
  • 特定の学術的ベースライン: 研究者はYOLOv5を古典的なベースラインとして頻繁に利用し、物体検出アーキテクチャの歴史的進展を示しています。

概要

YOLOv5 移行は単なる反復的な更新ではなく、物体検出モデルの訓練と展開方法における根本的な飛躍である。MuSGDオプティマイザの活用、NMS設計による複雑な後処理の排除、CPU 大幅な加速により、Ultralytics 速度と精度の妥協のないバランスを実現する。

YOLOv5 視覚AIを民主化したモデルとして永遠に記憶YOLOv5 、堅牢で実運用可能な将来性のあるアプリケーションを構築しようとする開発者は、自信を持ってYOLO26を基盤とすべきである。


コメント