物体検出の比較:PP-YOLOE+ 対YOLOv6.0
リアルタイムコンピュータビジョン分野は急速に拡大し、多様な導入シナリオ向けに最適化された高度に専門化されたアーキテクチャが生まれている。開発者は、高いスループットと信頼性の高い精度のバランスを必要とするアプリケーションを構築する際、YOLOv6頻繁に比較する。両モデルはリリース時に大幅なアーキテクチャ改良をもたらし、産業用およびエッジアプリケーション向けの推論速度向上に焦点を当てている。
詳細なアーキテクチャの内訳に深く踏み込む前に、速度と精度に関してこれらのモデルが互いにどのように機能するかを視覚化するために、以下のチャートをご覧ください。
PP-YOLOE+: アーキテクチャの強みと弱み
PaddlePaddle Authorsによって開発されたPP-YOLOE+は、その前身を基盤として、さまざまなスケール要件で堅牢なパフォーマンスを提供する著名なアンカーフリー検出器です。
- 著者: PaddlePaddle Authors
- 組織: Baidu
- 日付: 2022-04-02
- Arxiv:2203.16250
- GitHub:PaddlePaddle/PaddleDetection
アーキテクチャのハイライト
PP-YOLOE+は、オリジナルのPP-YOLOE設計に対していくつかの重要な改良を導入した。強力なCSPRepResNetバックボーンを活用し、計算コストと特徴抽出能力の効率的なバランスを実現している。さらに、高度な特徴ピラミッドネットワーク(FPN)とパスアグリゲーションネットワーク(PAN)を組み合わせて、マルチスケールの特徴融合を保証する。 特に際立つ特徴の一つがET-head(効率的なタスク連動ヘッド)であり、物体検出時の分類と位置特定における協調性を大幅に向上させます。
PP-YOLOE+は優れた平均精度(mAP)を達成する一方、PaddlePaddle への依存性により、PyTorchに慣れた研究者にとっては習得が困難な場合がある。これは、Paddleによる直接推論サポートを持たない異種エッジデバイスをターゲットとする場合、モデル展開プロセスをやや複雑にする可能性がある。
デプロイメントコンテキスト
PP-YOLOE+は百度の技術スタック内での展開に高度に最適化されており、本番環境でPaddle推論ツールを多用している場合に最適な選択肢となります。
YOLOv6.0: 産業用スループット
美団ビジョンAI部門が発表したYOLOv6.YOLOv6、産業用途向けの次世代物体検出器として明示的に設計され、GPU 上での大規模な処理能力を最優先に考慮している。
- 著者: Chuyi Li、Lulu Li、Yifei Geng、他。
- 組織:Meituan
- 日付: 2023-01-13
- Arxiv:2301.05586
- GitHub:meituan/YOLOv6
アーキテクチャのハイライト
YOLOv6.YOLOv6、特にNVIDIA TensorRTを使用する場合にハードウェア利用率を最大化するよう特別に設計されたEfficientRepバックボーンを備えています。 TensorRTを採用したNVIDIA GPUにおいて特に顕著です。v3.0アップデートでは、首部(neck)に双方向連結(BiC)モジュールを導入し、パラメータ数を大幅に増加させることなく空間特徴の保持性を向上させました。さらに、アンカーベースの安定性をモデル学習中に活用しつつ、リアルタイム推論時には高速なアンカーフリー構造を維持する「アンカー補助学習(AAT)」戦略を導入しています。
ただし、YOLOv6.YOLOv6サーバーグレードのGPU向けに高度に最適化されているため、制約のCPUのエッジデバイスに展開すると、レイテンシの向上が低下する場合がある。この特化性により、オフライン動画解析などの環境では優れた性能を発揮するが、小型のローカルハードウェアでは動的に最適化されたモデルに後れを取る可能性がある。
性能比較表
以下の表は、両アーキテクチャの異なるスケールバリエーションを直接比較し、主要なパフォーマンス指標を強調しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| PP-YOLOE+t | 640 | 39.9 | - | 2.84 | 4.85 | 19.15 |
| PP-YOLOE+s | 640 | 43.7 | - | 2.62 | 7.93 | 17.36 |
| PP-YOLOE+m | 640 | 49.8 | - | 5.56 | 23.43 | 49.91 |
| PP-YOLOE+l | 640 | 52.9 | - | 8.36 | 52.2 | 110.07 |
| PP-YOLOE+x | 640 | 54.7 | - | 14.3 | 98.42 | 206.59 |
| YOLOv6-3.0n | 640 | 37.5 | - | 1.17 | 4.7 | 11.4 |
| YOLOv6-3.0s | 640 | 45.0 | - | 2.66 | 18.5 | 45.3 |
| YOLOv6-3.0m | 640 | 50.0 | - | 5.28 | 34.9 | 85.8 |
| YOLOv6-3.0l | 640 | 52.8 | - | 8.95 | 59.6 | 150.7 |
ユースケースと推奨事項
PP-YOLOE+とYOLOv6の選択は、特定のプロジェクト要件、デプロイ制約、およびエコシステム設定に依存します。
PP-YOLOE+を選択するタイミング
PP-YOLOE+は以下に最適です:
- PaddlePaddleエコシステム統合: BaiduのPaddlePaddleフレームワークとツールに基づいて既存のインフラストラクチャを構築している組織。
- Paddle Lite Edgeデプロイメント: Paddle LiteまたはPaddle推論エンジン専用に高度に最適化された推論カーネルを備えたハードウェアへのデプロイ。
- 高精度サーバーサイドdetect: フレームワークの依存関係が問題とならない、強力なGPUサーバー上での最大限のdetect精度を優先するシナリオ。
YOLOv6を選択すべき時
YOLOv6 以下に推奨YOLOv6 :
- 産業用ハードウェア対応デプロイメント: モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェアで最適化されたパフォーマンスを提供するシナリオです。
- 高速シングルステージdetect: 制御された環境でのリアルタイムビデオ処理のために、GPUでの生の推論速度を優先するアプリケーション。
- 美団エコシステム統合: 美団の技術スタックとデプロイメントインフラストラクチャ内で既に作業しているチーム。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
Ultralytics :従来のモデルを超えた進化
PP-YOLOE+とYOLOv6特定の問題に対する解決策を提供しますが、現代のAI開発には汎用性が高くメモリ効率に優れたワークフローが求められます。Ultralytics 、この点において比類のない開発者体験を提供します。統一されたPython により、従来のリサーチリポジトリでよく見られる膨大な設定オーバーヘッドなしに、最先端モデルのトレーニング、検証、デプロイをシームレスに行えます。
Ultralytics 、標準的な検出を超えた多様なビジョンタスクをネイティブにサポートします。これにはインスタンスセグメンテーション、姿勢推定、画像分類、オリエンテッドバウンディングボックス(OBB)抽出が含まれます。さらに、トレーニング時のメモリ使用量を大幅に削減するよう高度に最適化されており、Transformerベースのモデルとは対照的です。 RT-DETR のように一般的に膨大なGPU 割り当てを必要とするトランスフォーマーベースのモデルとは対照的です。
YOLO26を発見: 新しい標準
究極の最先端ビジョンモデルのデプロイを検討している組織にとって、Ultralytics YOLO26(2026年1月リリース)は、パフォーマンスの限界を再定義します。いくつかの重要なイノベーションにより、旧世代を大幅に上回ります。
- エンドツーエンドNMSフリー設計: YOLOv10の概念に基づいて構築されたYOLO26は、Non-Maximum Suppression (NMS)の後処理を完全に排除します。このネイティブなエンドツーエンドアプローチは、リアルタイム安全システムにとって不可欠な、予測可能で超低レイテンシの推論を保証します。
- 最大43%高速なCPU推論: アーキテクチャからDistribution Focal Loss (DFL) を除去することで、YOLO26はエッジコンピューティングや専用GPUアクセラレーションを持たない環境向けに根本的に最適化されています。
- MuSGDオプティマイザ: LLMトレーニングの安定性をビジョンモデルに統合することで、このハイブリッドオプティマイザ(Moonshot AIに着想を得た)は、迅速な収束と非常に安定したカスタムトレーニングセッションを可能にします。
- ProgLoss + STAL: これらの高度な損失定式化は、小オブジェクト認識において目覚ましい改善をもたらし、航空ドローン画像や混雑したシーン分析のようなアプリケーションにとって不可欠です。
将来を見据えたパイプライン構築
新しいプロジェクトを構築する場合、レガシーアーキテクチャを回避しYOLO26を採用することを強く推奨します。そのメモリ効率とNMS高速処理により、本番環境への移行が大幅に容易になります。
シームレスな実装
Python を使用した最先端モデルのトレーニングとエクスポートは驚くほど簡単です。以下の例は、最新のYOLO26モデルをトレーニングし、ONNX エクスポートする方法を示しています:
from ultralytics import YOLO
# Load the cutting-edge YOLO26 small model
model = YOLO("yolo26s.pt")
# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a test image (NMS-free speed)
predict_results = model.predict("https://ultralytics.com/images/bus.jpg")
# Export to ONNX format for edge deployment
model.export(format="onnx")
古いワークフローに深く統合されているものの、現代的な安定性を求めるチームにとって、Ultralytics YOLO11を検討することも優れた移行ステップであり、Ultralyticsエコシステム全体に支えられた包括的なタスクの多様性を提供します。