YOLOv10 YOLOv5:包括的な技術比較
適切なニューラルネットワークアーキテクチャの選択は、本番環境で成功するコンピュータビジョンパイプラインをデプロイするために不可欠です。このページでは、リアルタイム物体検出の進化において非常に影響力のある2つのモデル、YOLOv10とYOLOv5を比較する詳細な技術分析を提供します。両モデルはAIコミュニティに大きな影響を与えましたが、ディープラーニングアーキテクチャ設計における異なる時代と哲学を代表しています。
本ガイドでは、平均精度(mAP)、推論レイテンシ、パラメータ効率、エコシステムサポートに基づいてこれらのアーキテクチャを評価し、導入ニーズに最適なモデルを選択するお手伝いをします。
モデルの概要
YOLOv10: リアルタイムエンドツーエンド物体検出
清華大学の研究者によって開発されたYOLOv10は、後処理の必要性を排除することにより、物体検出への新しいアプローチを導入しました。
- 著者: Ao Wang, Hui Chen, Lihao Liu, et al.
- 組織:清華大学
- 日付: 2024-05-23
- 研究論文:arXiv:2405.14458
- ソースコード:YOLOv10 GitHubリポジトリ
YOLOv10 決定的なブレークスルーYOLOv10 エンドツーエンドNMS設計 YOLOv10 。従来、YOLO 冗長なバウンディングボックスを除去するために非最大抑制(NMS)に依存していた。YOLOv10 NMSのための一貫した二重アサインメントYOLOv10 、これにより推論遅延の変動が大幅に低減され、デプロイロジックが簡素化された。 さらに、このアーキテクチャは効率性と精度を追求した包括的な設計を採用し、計算上の冗長性を削減するため、様々なコンポーネントを徹底的に最適化している。
YOLOv5:業界標準の使いやすさ
Ultralytics PyTorch の立ち上げ直後にリリースされたYOLOv5 、オープンソースのビジョンAIフレームワークに対する開発者の期待をYOLOv5 。現在も世界で最も広く導入されているアーキテクチャの一つである。
- Author: Glenn Jocher
- 組織:Ultralytics
- 日付: 2020-06-26
- ソースコード:YOLOv5 GitHubリポジトリ
YOLOv5 はその使いやすさと、非常に良く整備されたエコシステムでYOLOv5 完全にPyTorchで記述されており、トレーニング、検証、ONNXなどの形式へのエクスポートをすぐに使える状態でサポートすることで、シームレスな「ゼロからヒーローへ」の体験を提供しました。 ONNX や TensorRTといったフォーマットへのエクスポートを標準でサポートし、シームレスな「ゼロからヒーローへ」の体験を提供します。純粋な物体検出に主眼をYOLOv10、YOLOv5 汎用性を示し、同一のPython API内でインスタンスセグメンテーション と画像分類をサポートします。
パフォーマンスとメトリクスの比較
速度と精度の関係を可視化することは、特定の速度制約下で最高の精度を提供するモデルを特定するために不可欠です。これらの性能指標を理解することは、特定のハードウェア制約に適合するモデルを選択する上で基礎となります。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
テクニカル分析
- 精度 (mAP): YOLOv10は、精度において明確な世代的優位性を示しています。例えば、YOLOv10-Xモデルは54.4%のmAPvalを達成し、YOLOv5x (50.7% mAP) を上回っています。この飛躍は、主に2024年に導入されたNMSフリーのトレーニング戦略とアーキテクチャの改良によるものです。
- 推論レイテンシー: YOLOv5モデルは生のT4 TensorRTベンチマーク(例:YOLOv5nで1.12ms)では非常に高速ですが、YOLOv10は後処理のNMSステップを完全に排除します。エンドツーエンドの実用的なデプロイメントでは、YOLOv10のNMSフリー設計により、より一貫性のある決定論的なレイテンシーが提供されます。これは自動運転車やロボティクスのようなリアルタイムアプリケーションにとって不可欠です。
- パラメータ効率: YOLOv10モデルは、非常に競争力のあるパフォーマンスバランスを維持しています。YOLOv10-Sはわずか7.2Mパラメータで46.7%のmAPを達成する一方、YOLOv5sは9.1Mパラメータで37.4%のmAPを達成します。
デプロイのヒント
NVIDIA のようなエッジAIデバイスに展開する場合、NMS を持たないモデル(YOLOv10 )は、TensorRTコンパイルがよりクリーンに行われ、CPUへのフォールバック操作を回避できることが多い。
ユースケースと推奨事項
YOLOv10とYOLOv5のどちらを選択するかは、特定のプロジェクト要件、デプロイメントの制約、およびエコシステムの好みに依存します。
YOLOv10を選択すべき時
YOLOv10 以下に最適YOLOv10 :
- NMSフリーのリアルタイムdetect: Non-Maximum Suppressionなしのエンドツーエンドのdetectから恩恵を受け、デプロイの複雑さを軽減するアプリケーション。
- 速度と精度のバランスの取れたトレードオフ: さまざまなモデルスケールにおいて、推論速度と検出精度の強力なバランスを必要とするプロジェクト。
- 一貫したレイテンシが求められるアプリケーション: ロボット工学や自律システムなど、予測可能な推論時間が重要となるデプロイメントシナリオ。
YOLOv5を選択すべき時
YOLOv5 以下に推奨YOLOv5 :
- 実績のある本番システム: YOLOv5の長年にわたる安定性、広範なドキュメント、および大規模なコミュニティサポートが評価されている既存のデプロイメント。
- Resource-Constrained Training: 限られたGPUリソースを持つ環境において、YOLOv5の効率的なトレーニングパイプラインと低いメモリ要件が有利です。
- 豊富なエクスポート形式のサポート: ONNX、TensorRT、CoreML、およびTFLiteを含む多くの形式でのデプロイを必要とするプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
Ultralyticsの利点
YOLOv10 優れた検出YOLOv10 、学術リポジトリに依存すると、本番環境のパイプラインが複雑になる場合があります。公式Ultralytics Python を使用することで、YOLOv10 YOLOv5 サポートする統一されたエコシステムと高度な機能を利用できます。
- 訓練効率: Ultralytics YOLOアーキテクチャは、訓練中のメモリ要件を低くするために深く最適化されています。膨大なCUDAメモリを必要とする重いトランスフォーマーモデル(RT-DETRなど)とは異なり、標準的な民生用GPUでYOLOv5とYOLOv10を快適に訓練できます。
- エコシステム統合: Ultralytics Platformとの統合により、開発者はデータセットを視覚的に管理し、Weights & Biasesを使用して実験をtrackし、ハイパーパラメータを自動的に調整できます。
コード例:シームレスなトレーニング
Ultralytics を使用すれば、これらのアーキテクチャ間の切り替えはモデル文字列を変更するだけで簡単に行えます。トレーニングパイプラインはデータ拡張、スケーリング、オプティマイザ設定を自動的に処理します。
from ultralytics import YOLO
# To use YOLOv5:
# model = YOLO("yolov5s.pt")
# To use YOLOv10:
model = YOLO("yolov10s.pt")
# Train the model on a custom dataset
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=16,
device=0, # Use GPU 0
)
# Export the trained model to ONNX format
path = model.export(format="onnx")
次世代:Ultralytics
今日新しい機械学習プロジェクトを始めるなら、最新の Ultralytics の評価を強く推奨します。2026年1月にリリースされたこのモデルは、過去5年間の最先端技術を統合し、絶対的な最先端技術を実現しています。
YOLO26は、YOLOv10が先駆けたエンドツーエンドNMS設計をネイティブに組み込み、迅速かつ決定論的な展開を保証します。さらに、YOLO26はいくつかの重要なブレークスルーを導入しています:
- 最大43%高速なCPU推論: Distribution Focal Loss (DFL) モジュールを削除することで、YOLO26 は標準 CPU で大幅な高速化を実現し、モバイルデプロイメント および低電力IoTセンサーにとって最高の選択肢となります。
- MuSGDオプティマイザ: Moonshot AIのKimi K2のような大規模言語モデル (LLM) の学習技術に触発され、YOLO26はSGDとMuonのハイブリッドを利用しています。これにより、YOLOv10で使用されているAdamWオプティマイザと比較して、非常に安定した学習実行と大幅に加速された収束が保証されます。
- ProgLoss + STAL: これらの高度な損失関数は、ドローン画像や航空セキュリティアプリケーションにとって不可欠な小物体認識において、顕著な改善をもたらします。
- タスク特化型性能: YOLOv10は厳密にはバウンディングボックスdetectorですが、YOLO26は、姿勢推定のためのResidual Log-Likelihood Estimation (RLE)やOriented Bounding Boxes (obb)のための特殊な角度損失など、全てのタスクに対して専用のアーキテクチャ改善を提供します。
詳細を見る
物体検出のより広範な領域を探求している場合、これらのアーキテクチャを他のフレームワークと比較することにも興味があるかもしれません。より包括的なベンチマークについては、YOLO11 RT-DETR YOLOv8 YOLO11 詳細な分析記事をご覧ください。
YOLOv5堅牢な実績、YOLOv10 NMS革新性、あるいはYOLO26の比類なき最先端性能のいずれに依存する場合でも、Ultralytics 、ビジョンAIアプリケーションを迅速かつ効率的に実現するために必要なツールを提供します。