YOLOv10 YOLOv7:リアルタイム物体検出の進化
ここ数年におけるコンピュータビジョンの急速な進歩は、リアルタイムアプリケーション向けの効率的なアーキテクチャを次々と生み出してきた。比較すると YOLOv10 と YOLOv7 を比較すると、この進化における重要な過渡期が浮き彫りになる。YOLOv7 極めて効果的な学習戦略とアーキテクチャのスケーリングYOLOv7 、YOLOv10 長年の課題であった非最大抑制(NMS)への依存を排除することで、デプロイメントにYOLOv10 。
両モデルはそれぞれのリリース時に物体detectの限界を押し広げましたが、現代のUltralyticsエコシステムとYOLO26のような次世代モデルの導入は、今日のAI実務家にとって遥かに優れたワークフローを提供します。
モデルのプロファイルと起源
これらのモデルの起源を理解することは、そのアーキテクチャ設計上の選択や、それらを推進する学術研究に関する貴重な背景情報を提供する。
YOLOv10
- 著者: Ao Wang, Hui Chen, Lihao Liu, et al.
- 組織:清華大学
- 日付: 2024-05-23
- Arxiv: YOLOv10: リアルタイムエンドツーエンド物体検出
- GitHub:THU-MIG/yolov10
- ドキュメント: Ultralytics YOLOv10 ドキュメント
YOLOv7
- 著者:王建耀、アレクセイ・ボチコフスキー、廖宏源マーク
- 組織名:台湾中央研究院情報科学研究所
- 日付: 2022年7月6日
- Arxiv: YOLOv7: 学習可能なbag-of-freebiesが新たな最先端を確立
- GitHub:WongKinYiu/yolov7
- ドキュメント: Ultralytics YOLOv7 ドキュメント
アーキテクチャの革新
YOLOv7
2022年に発表されたYOLOv7 、勾配経路の最適化にYOLOv7 。拡張効率的層集約ネットワーク(E-ELAN)を導入し、元の勾配経路を損なうことなく、より多様な特徴を学習できるようにした。 さらに著者らは「訓練可能なフリービーの袋」手法を実装し、学習時には再パラメータ化技術を活用しつつ、推論時にはこれを融合解除することで高速実行を維持した。こうした優れた最適化にもかかわらず、YOLOv7 NMS 大きく依存YOLOv7 、高密度シーン解析時に変動する遅延を生じさせていた。
YOLOv10 のYOLOv10
YOLOv10 NMS 直接YOLOv10 。清華大学チームは学習中に一貫した二重アサインメントを導入することで、NMSのエンドツーエンド検出を実現した。このデュアルヘッドアプローチでは、学習時には豊富な監督信号を得るため一対多アサインメントを用いる一方、推論時にはNMSのため一対一アサインメントを用いる。 このアーキテクチャの転換により、高速動画解析に適した一貫性のある超低推論遅延が保証される。YOLOv10 、効率性と精度を統合的に追求したモデル設計YOLOv10 、従来世代に見られた計算上の冗長性を排除している。
後処理の影響
NMS 削除することで、推論が高速化されるだけでなく、AIアクセラレータやNPUといったエッジAIハードウェア上での展開が大幅に簡素化される。これらのハードウェアでは、カスタムNMS コンパイルが特に困難であることが知られている。
パフォーマンス比較
MSCOCO における生データの比較では、世代間の差が明らかになる。YOLOv10 、パラメータ数、計算要件、精度という要素の間で、はるかに優れたトレードオフYOLOv10 。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
上記の通り、YOLOv10xはYOLOv7xの53.1%と比較して、54.4%という優れたmAPを実現し、パラメータ数は約20%削減されています。さらに、軽量なYOLOv10モデル(NanoおよびSmall)は、卓越したTensorRTデプロイメント速度を提供し、モバイルデプロイメントにおいて非常に魅力的です。
Ultralyticsエコシステムの利点
建築論文の研究は示唆に富むが、現代のコンピュータビジョン開発は堅牢で適切に保守されたフレームワークに依存している。Ultralyticsモデルを選択することは、プロトタイプから本番環境への迅速な移行を目指す開発者にとって大きな利点となる。
効率化された開発
YOLOv10とYOLOv7は両方とも標準のUltralytics pythonパッケージを介してアクセスできます。これにより、比類のない使いやすさが提供され、何千行ものボイラープレートコードがシンプルで直感的なAPIに置き換えられます。さらに、Ultralytics YOLOモデルは、重いトランスフォーマーアーキテクチャと比較して、トレーニング中のCUDAメモリ要件が大幅に低く、コンシューマーグレードのハードウェアでより大きなバッチサイズを使用できます。
比類なき汎用性
従来のリポジトリは境界ボックス検出に限定されることが多いが、統合されたUltralytics は多種多様なタスクをシームレスにサポートする。インスタンスセグメンテーション、姿勢推定、オリエンテッドバウンディングボックス(OBB)検出のいずれを実行する場合でも、ワークフローは同一である。
コード例: 一貫したトレーニングワークフロー
以下のコードスニペットは、データ拡張と学習率スケジューリングを自動的に処理するシームレスなトレーニングプロセスを示しています:
from ultralytics import YOLO
# Load the desired model (YOLOv10, YOLOv7, or the recommended YOLO26)
model = YOLO("yolo26n.pt")
# Train the model effortlessly on your dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)
# Export to ONNX format for rapid deployment
model.export(format="onnx")
ユースケースと推奨事項
YOLOv10とYOLOv7のどちらを選択するかは、特定のプロジェクト要件、デプロイメントの制約、およびエコシステムの好みに依存します。
YOLOv10を選択すべき時
YOLOv10 以下に最適YOLOv10 :
- NMSフリーのリアルタイムdetect: Non-Maximum Suppressionなしのエンドツーエンドのdetectから恩恵を受け、デプロイの複雑さを軽減するアプリケーション。
- 速度と精度のバランスの取れたトレードオフ: さまざまなモデルスケールにおいて、推論速度と検出精度の強力なバランスを必要とするプロジェクト。
- 一貫したレイテンシが求められるアプリケーション: ロボット工学や自律システムなど、予測可能な推論時間が重要となるデプロイメントシナリオ。
YOLOv7を選択すべき時
YOLOv7 以下に推奨YOLOv7 :
- Academic Benchmarking: 2022年時代の最先端の結果を再現したり、E-ELANと学習可能なbag-of-freebies技術の効果を研究する場合に。
- 再パラメータ化研究: 計画された再パラメータ化畳み込みと複合モデルスケーリング戦略の調査。
- 既存のカスタムパイプライン: YOLOv7の特定のアーキテクチャを中心に構築され、容易にリファクタリングできない大幅にカスタマイズされたパイプラインを持つプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
新たな基準:YOLO26のご紹介
YOLOv10 024年に画期的な飛躍YOLOv10 、コンピュータビジョンの分野は驚異的なスピードで進化しています。新規開発においては、最新世代モデルUltralytics 強く推奨します。2026年1月にリリースされた本モデルは、リアルタイムビジョンAIの頂点を極め、YOLOv10大幅に凌駕しています。
YOLO26は、現代のデプロイ環境向けに特別に設計された前例のない革新をもたらします:
- エンドツーエンドのNMSフリー設計: YOLOv10で築かれた基盤に基づいて、YOLO26はNMS後処理をネイティブに排除し、よりシンプルなデプロイパイプラインと一貫した高速推論を実現します。
- CPU推論が最大43%高速化: エッジコンピューティングや専用GPUを持たないデバイス向けに大幅に最適化されており、ハードウェアコストを大幅に削減します。
- DFLの削除: Distribution Focal Lossが完全に削除されたことで、エクスポートロジックが根本的に簡素化され、低消費電力エッジデバイスやマイクロコントローラーとの互換性が大幅に向上します。
- MuSGDオプティマイザ: Moonshot AIのKimi K2に着想を得たSGDとMuonのこのハイブリッドは、大規模言語モデル(LLM)のトレーニング革新をコンピュータビジョンに直接もたらし、非常に安定したトレーニングダイナミクスとより速い収束をもたらします。
- ProgLoss + STAL: これらの高度な損失関数は、ドローン、ロボティクス、およびスマートシティ監視にとって不可欠な、歴史的に困難な分野である小物体認識において、顕著な改善を実現します。
- タスク固有の改善点: YOLO26は単なるdetectorではありません。特殊なセマンティックsegmentation損失、超高精度な姿勢追跡のためのResidual Log-Likelihood Estimation (RLE)、およびobbの境界問題を解消するための特殊な角度損失アルゴリズムを含んでいます。
データセットの管理とトレーニング
データセットの管理、YOLO26のトレーニング、およびモデルのクラウドへのデプロイにおいて最高の体験を得るには、Ultralytics Platformを探索してください。これは、Python SDKを完璧に補完するノーコードインターフェースを提供します。
実際のユースケース
適切なアーキテクチャの選択は、ハードウェアとアプリケーションの制約に大きく依存します。
YOLOv7をいつ使用するか
YOLOv7 、特定のtensor と深く統合された既存のパイプラインを維持する場合や、2022年および2023年の学術ベンチマークを再現する場合において、YOLOv7 信頼性の高い選択肢YOLOv7 。ハイエンドサーバーGPU上では優れた性能を発揮する。
YOLOv10の使用タイミング
YOLOv10 、厳密で変動のないレイテンシが要求されるシナリオでYOLOv10 。NMSため、物体数が激しく変動する一方でフレームごとの処理時間を一定に保つ必要がある高密度群衆計測や製造欠陥検出に最適である。
YOLO26 の使用場面
YOLO26は新規プロジェクトにおける決定的な選択肢です。基本的なラズベリーパイへの高度なセキュリティ警報システムの導入から、大規模なクラウドベースの映像解析の実行まで、その優れたCPU と先進的な小物体検出機能により、旧世代製品を大きく凌駕します。
代替の最新アーキテクチャの探求に興味がある開発者向けに、RT-DETRのようなトランスフォーマーベースのdetect器や、Ultralytics YOLO11のような以前の世代の主要なモデルについても、広範なサポートを提供しています。