YOLOv10 YOLOv7:リアルタイム物体検出の進化
ここ数年におけるコンピュータビジョンの急速な進歩は、リアルタイムアプリケーション向けの効率的なアーキテクチャを次々と生み出してきた。比較すると YOLOv10 と YOLOv7 を比較すると、この進化における重要な過渡期が浮き彫りになる。YOLOv7 極めて効果的な学習戦略とアーキテクチャのスケーリングYOLOv7 、YOLOv10 長年の課題であった非最大抑制(NMS)への依存を排除することで、デプロイメントにYOLOv10 。
両モデルはそれぞれリリース時に物体検出の限界を押し広げたが、現代Ultralytics とYOLO26のような次世代モデルの登場により、今日のAI実践者にとってはるかに優れたワークフローが提供されている。
モデルのプロファイルと起源
これらのモデルの起源を理解することは、そのアーキテクチャ設計上の選択や、それらを推進する学術研究に関する貴重な背景情報を提供する。
YOLOv10
- 著者: Ao Wang, Hui Chen, Lihao Liu, et al.
- 組織:清華大学
- 日付: 2024-05-23
- Arxiv:YOLOv10: リアルタイムエンドツーエンド物体検出
- GitHub:THU-MIG/yolov10
- ドキュメント:Ultralytics YOLOv10
YOLOv7
- 著者:王建耀、アレクセイ・ボチコフスキー、廖宏源マーク
- 組織名:台湾中央研究院情報科学研究所
- 日付: 2022年7月6日
- Arxiv:YOLOv7: 学習可能なフリーアイテムの集合が新たな最先端技術を実現
- GitHub:WongKinYiu/yolov7
- ドキュメント:Ultralytics YOLOv7
アーキテクチャの革新
YOLOv7
2022年に発表されたYOLOv7 、勾配経路の最適化にYOLOv7 。拡張効率的層集約ネットワーク(E-ELAN)を導入し、元の勾配経路を損なうことなく、より多様な特徴を学習できるようにした。 さらに著者らは「訓練可能なフリービーの袋」手法を実装し、学習時には再パラメータ化技術を活用しつつ、推論時にはこれを融合解除することで高速実行を維持した。こうした優れた最適化にもかかわらず、YOLOv7 NMS 大きく依存YOLOv7 、高密度シーン解析時に変動する遅延を生じさせていた。
YOLOv10 のYOLOv10
YOLOv10 NMS 直接YOLOv10 。清華大学チームは学習中に一貫した二重アサインメントを導入することで、NMSのエンドツーエンド検出を実現した。このデュアルヘッドアプローチでは、学習時には豊富な監督信号を得るため一対多アサインメントを用いる一方、推論時にはNMSのため一対一アサインメントを用いる。 このアーキテクチャの転換により、高速動画解析に適した一貫性のある超低推論遅延が保証される。YOLOv10 、効率性と精度を統合的に追求したモデル設計YOLOv10 、従来世代に見られた計算上の冗長性を排除している。
後処理の影響
NMS 削除することで、推論が高速化されるだけでなく、AIアクセラレータやNPUといったエッジAIハードウェア上での展開が大幅に簡素化される。これらのハードウェアでは、カスタムNMS コンパイルが特に困難であることが知られている。
パフォーマンス比較
MSCOCO における生データの比較では、世代間の差が明らかになる。YOLOv10 、パラメータ数、計算要件、精度という要素の間で、はるかに優れたトレードオフYOLOv10 。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
上記のように、YOLOv10xはYOLOv7xの53.1%mAP .mAP 優れたmAP を達成しつつ、パラメータ数を約20%削減しています。さらに軽量YOLOv10 (NanoおよびSmall)TensorRT 速度が極めて高く、モバイル展開において非常に魅力的な選択肢となっています。
Ultralyticsエコシステムの利点
建築論文の研究は示唆に富むが、現代のコンピュータビジョン開発は堅牢で適切に保守されたフレームワークに依存している。Ultralyticsモデルを選択することは、プロトタイプから本番環境への迅速な移行を目指す開発者にとって大きな利点となる。
効率化された開発
YOLOv7 YOLOv10 Ultralytics Python YOLOv7 。これにより比類のない使いやすさが実現され、何千行もの定型コードがシンプルで直感的なAPIに置き換えられます。さらに、Ultralytics YOLO 、大規模なトランスフォーマーアーキテクチャと比較して、CUDA 大幅に低いため、コンシューマー向けハードウェアでもより大きなバッチサイズの使用が可能となります。
比類なき汎用性
従来のリポジトリは境界ボックス検出に限定されることが多いが、統合されたUltralytics は多種多様なタスクをシームレスにサポートする。インスタンスセグメンテーション、姿勢推定、オリエンテッドバウンディングボックス(OBB)検出のいずれを実行する場合でも、ワークフローは同一である。
コード例:一貫したトレーニングワークフロー
以下のコードスニペットは、データ拡張と学習率スケジューリングを自動的に処理するシームレスなトレーニングプロセスを示しています:
from ultralytics import YOLO
# Load the desired model (YOLOv10, YOLOv7, or the recommended YOLO26)
model = YOLO("yolo26n.pt")
# Train the model effortlessly on your dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)
# Export to ONNX format for rapid deployment
model.export(format="onnx")
ユースケースと推奨事項
YOLOv7 YOLOv10 具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステムの好みにYOLOv7 。
YOLOv10を選択すべき時
YOLOv10 以下に最適YOLOv10 :
- NMSリアルタイム検出:ノンマキシマム抑制なしのエンドツーエンド検出により、導入の複雑さを軽減するアプリケーション。
- 速度と精度のバランスの取れたトレードオフ:様々なモデル規模において、推論速度と検出精度との強力なバランスを必要とするプロジェクト。
- 一貫したレイテンシを必要とするアプリケーション:予測可能な推論時間が極めて重要な展開シナリオ(例:ロボティクスや自律システム)。
YOLOv7を選択すべき時
YOLOv7 以下に推奨YOLOv7 :
- 学術ベンチマーク:2022年当時の最先端結果の再現、またはE-ELANおよび学習可能なフリービー袋技法の効果の研究。
- 再パラメータ化研究:計画的再パラメータ化畳み込みと複合モデルスケーリング戦略の検討
- 既存のカスタムパイプライン: YOLOv7特定アーキテクチャを中心に構築された高度にカスタマイズされたパイプラインを持つプロジェクトで、容易にリファクタリングできないもの。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:
- NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
- CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
- 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。
新たな基準:YOLO26のご紹介
YOLOv10 024年に画期的な飛躍YOLOv10 、コンピュータビジョンの分野は驚異的なスピードで進化しています。新規開発においては、最新世代モデルUltralytics 強く推奨します。2026年1月にリリースされた本モデルは、リアルタイムビジョンAIの頂点を極め、YOLOv10大幅に凌駕しています。
YOLO26は、現代のデプロイ環境向けに特別に設計された前例のない革新をもたらします:
- エンドツーエンドNMS設計: YOLOv10築いた基盤をさらに発展させ、YOLOv26はNMS ネイティブに排除。これにより、よりシンプルなデプロイメントパイプラインと一貫した高速推論を実現します。
- 最大43%高速CPU :エッジコンピューティングや専用GPUを搭載しないデバイス向けに大幅に最適化され、ハードウェアコストを大幅に削減します。
- DFLの削除:分布焦点損失(Distribution Focal Loss)が完全に削除されました。これにより、エクスポートロジックが大幅に簡素化され、低電力エッジデバイスやマイクロコントローラーとの互換性が大幅に向上します。
- MuSGDオプティマイザ:Moonshot AIのKimi K2に着想を得た、SGD ハイブリッド手法。大規模言語モデル(LLM)のトレーニング革新をコンピュータビジョンに直接導入し、驚異的な安定性を備えたトレーニングダイナミクスと高速な収束を実現する。
- ProgLoss + STAL:これらの先進的な損失関数は、ドローン、ロボティクス、スマートシティ監視において極めて重要でありながら、従来から課題となってきた領域である微小物体認識において顕著な改善をもたらします。
- タスク特化型改良点:YOLO26は単なる検出器ではない。高度なセマンティックセグメンテーション損失、超高精度姿勢追跡のための残差対数尤度推定(RLE)、およびOBB境界問題を解消する専用角度損失アルゴリズムを備えている。
データセットの管理とトレーニング
データセット管理、YOLO26のトレーニング、クラウドへのモデルデプロイにおいて最高の体験を得るには、Ultralytics をご検討ください。Python を完璧に補完するノーコードインターフェースを提供します。
実際のユースケース
適切なアーキテクチャの選択は、ハードウェアとアプリケーションの制約に大きく依存します。
YOLOv7をいつ使用するか
YOLOv7 、特定のtensor と深く統合された既存のパイプラインを維持する場合や、2022年および2023年の学術ベンチマークを再現する場合において、YOLOv7 信頼性の高い選択肢YOLOv7 。ハイエンドサーバーGPU上では優れた性能を発揮する。
YOLOv10の使用タイミング
YOLOv10 、厳密で変動のないレイテンシが要求されるシナリオでYOLOv10 。NMSため、物体数が激しく変動する一方でフレームごとの処理時間を一定に保つ必要がある高密度群衆計測や製造欠陥検出に最適である。
YOLO26 の使用場面
YOLO26は新規プロジェクトにおける決定的な選択肢です。基本的なラズベリーパイへの高度なセキュリティ警報システムの導入から、大規模なクラウドベースの映像解析の実行まで、その優れたCPU と先進的な小物体検出機能により、旧世代製品を大きく凌駕します。
代替となる現代的なアーキテクチャの探索に関心のある開発者のために、我々はまた、 RT-DETR や、従来世代の定番である Ultralytics YOLO11などの従来世代の定番モデルについても、広範なサポートを提供しています。