YOLOv5 YOLO26:リアルタイム物体検出における世代を超えた飛躍
コンピュータビジョンの進化は、より高速で、より正確で、よりアクセスしやすいモデルを追求する継続的な努力によって定義されてきた。比較する際に Ultralytics YOLOv5 を比較Ultralytics 、堅牢なレガシーシステムと最先端の現代AI導入との間のギャップを埋めるパラダイムシフトが明らかになる。
このガイドでは、両アーキテクチャの包括的な技術的分析を提供し、そのパフォーマンス指標、構造上の差異、および理想的な導入シナリオを明らかにします。
モデルの概要
YOLOv5:産業の主力
2020年にリリースされたYOLOv5 、物体検出のアクセシビリティにYOLOv5 。アーキテクチャをネイティブに PyTorch フレームワークへネイティブ移行することで、開発者に前例のない「ゼロからヒーローへ」の体験を提供しました。
- 著者: Glenn Jocher
- 組織:Ultralytics
- 日付: 2020-06-26
- GitHub:https://github.com/ultralytics/yolov5
- ドキュメント:YOLOv5 ドキュメント
YOLOv5 、高度に維持管理されたUltralytics 基盤をYOLOv5 。積極的なデータ拡張技術、効率的なトレーニングループ、そしてCoreMLなどのエッジフォーマットへの高度に最適化されたエクスポートパスを導入しました。 CoreML や ONNXといったエッジフォーマットへの高度に最適化されたエクスポートパスを導入しました。その使いやすさとトレーニング時の低メモリ要件により、世界中のスタートアップや研究者にとって欠かせない存在となりました。
YOLO26:次世代ビジョンAIの標準
2026年1月に時を移すと、Ultralytics リアルタイム視覚AIの頂点を代表する。これは YOLOv8 や YOLO11といった中間世代から得た知見をネイティブに統合しつつ、大規模言語モデル(LLM)のトレーニングに着想を得た画期的な革新をもたらした。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2026-01-14
- GitHub:https://github.com/ultralytics/ultralytics
- ドキュメント:YOLO26 ドキュメント
YOLO26は性能バランスの新たな基準を打ち立て、最先端の精度を提供すると同時に、エッジコンピューティングシナリオを支配するよう明示的に設計されています。
Ultralytics
古いコードベースを移行する場合、YOLOv5 YOLO11との比較も参考になるでしょう。YOLO11は姿勢推定や方向付きバウンディングボックス(OBB)など多様なタスクへの初期サポートを導入した前世代モデルです。
YOLO26におけるアーキテクチャの飛躍的進歩
YOLOv5 アンカーベースの検出ヘッドと標準的な損失関数にYOLOv5 に対し、YOLO26は内部メカニズムを完全に刷新し、デプロイメントのボトルネックを解消している。
- エンドツーエンドNMS:最大の違いは、YOLO26がネイティブにエンドツーエンドアーキテクチャを採用している点です。冗長なバウンディングボックスをフィルタリングするために手動の非最大抑制(NMS)を必要YOLOv5異なり、YOLO26はこの後処理ステップを完全に排除します。これにより、決定論的な推論レイテンシが保証され、C++や組込みハードウェアへの統合が劇的に簡素化されます。
- DFL除去:YOLO26は分布焦点損失(DFL)を除去します。このアーキテクチャ選択によりモデルエクスポートが大幅に簡素化され、複雑な演算に苦戦しがちな低電力エッジデバイスやマイクロコントローラーとの互換性が向上します。
- MuSGDオプティマイザー:Moonshot AIのKimi K2に着想を得たYOLO26は、SGD ハイブリッドであるMuSGDオプティマイザーを採用しています。これにより、LLMトレーニングで見られる安定性と高速収束がコンピュータビジョンにも適用され、トランスフォーマーを多用するモデルと比較してメモリ使用量の削減とトレーニングサイクルの高速化を実現しています。
- ProgLoss + STAL:YOLO26は高度なProgLossとSTAL機能を採用し、YOLOv5歴史的な課題であったdetect 密集した物体のdetect 能力を大幅に改善しています。
パフォーマンス比較
COCO におけるモデル比較において、YOLO26は精度(mAP)において大幅な改善を示すと同時に、パラメータ数を削減し、CPU 速度を向上させている。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
注記:YOLO26 Nano(YOLO26n)は、DFLの除去とNMSにより最大43%高速CPU を実現しつつ、YOLOv5nの28.0mAP驚異的な40.9mAP を達成しています。
汎用性とタスクサポート
YOLOv5 主に物体検出でYOLOv5 。後続のアップデートで基本的なセグメンテーション機能が追加されましたが、YOLOv26は統合型マルチタスクエンジンとして一から構築されました。
YOLO26は本質的に以下をサポートします:
- インスタンスセグメンテーション:タスク特化型マルチスケールプロトスとセマンティックセグメンテーション損失を特徴とする。
- 姿勢推定:高精度キーポイント検出のための残差対数尤度推定(RLE)の活用
- 方向付き境界ボックス(OBB):境界の不連続性問題を解決するための特殊な角度損失を含む。衛星画像解析において極めて重要である。
- 画像分類:標準的なフル画像のカテゴリ分け。
エコシステム統合
Ultralytics 恩恵を受け、シームレスなデータアノテーション、自動化されたハイパーパラメータ調整、ワンクリックでのクラウドデプロイを実現します。ただし、YOLO26は最新のAPI構造を最大限に活用しています。
使用方法とコード例
Ultralytics Python モデル間の切り替えを驚くほど簡単にします。両モデルが同じよく整備されたエコシステムを共有しているため、レガシーなYOLOv5 をYOLO26に更新するには、重みファイルを変更するだけで済みます。
pythonの例
from ultralytics import YOLO
# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")
# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")
# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=32, # YOLO26's low memory footprint allows larger batch sizes
)
# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
CLIの例
YOLO26は、コマンドラインから直接デプロイできます。 TensorRT 統合により、最大GPU を実現できます:
# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine
# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4
理想的なユースケース
YOLO26を選択する場合
現代のコンピュータビジョンプロジェクトにおいて、YOLO26は間違いなく最良の選択肢である。
- エッジAIとIoT:43%高速なCPU とDFLの排除により、ラズベリーパイやモバイルデバイスへの展開に最適です。
- 高速パイプライン: NMS安定した予測可能なレイテンシを保証し、自律ロボットやリアルタイムセキュリティ警報システムにとって極めて重要です。
- 複雑なシナリオ:アプリケーションで小型物体(例:ドローン監視)や回転物体(OBB)の追跡が必要な場合、YOLO26の高度な損失関数(ProgLoss + STAL)が大幅な精度向上をもたらします。
YOLOv5を選択すべき時
- レ NMS シーシステム:実稼働環境でYOLOvYOLOv5特定のアンカー生成やNMS解析ロジックへのハードコードされた依存関係がある場合、移行には短期間のリファクタリング期間が必要となる可能性があります。
- 特定の学術的ベースライン:研究者は、物体検出アーキテクチャの歴史的進展を示すために、YOLOv5 古典的なYOLOv5 頻繁に用いる。
概要
YOLOv5 移行は単なる反復的な更新ではなく、物体検出モデルの訓練と展開方法における根本的な飛躍である。MuSGDオプティマイザの活用、NMS設計による複雑な後処理の排除、CPU 大幅な加速により、Ultralytics 速度と精度の妥協のないバランスを実現する。
YOLOv5 視覚AIを民主化したモデルとして永遠に記憶YOLOv5 、堅牢で実運用可能な将来性のあるアプリケーションを構築しようとする開発者は、自信を持ってYOLO26を基盤とすべきである。