コンテンツにスキップ

物体検出の比較:PP-YOLOE+ 対YOLOv6.0

リアルタイムコンピュータビジョン分野は急速に拡大し、多様な導入シナリオ向けに最適化された高度に専門化されたアーキテクチャが生まれている。開発者は、高いスループットと信頼性の高い精度のバランスを必要とするアプリケーションを構築する際、YOLOv6頻繁に比較する。両モデルはリリース時に大幅なアーキテクチャ改良をもたらし、産業用およびエッジアプリケーション向けの推論速度向上に焦点を当てている。

詳細なアーキテクチャの分析に入る前に、以下のチャートで各モデルの速度と精度における相対的な性能を可視化してみましょう。

PP-YOLOE+: アーキテクチャの強みと弱み

PaddlePaddle 開発されたPP-YOLOE+は、アンカーフリー検出器の代表格であり、先行モデルを基盤として構築され、様々なスケールの要件にわたって堅牢な性能を発揮します。

アーキテクチャのハイライト

PP-YOLOE+は、オリジナルのPP-YOLOE設計に対していくつかの重要な改良を導入した。強力なCSPRepResNetバックボーンを活用し、計算コストと特徴抽出能力の効率的なバランスを実現している。さらに、高度な特徴ピラミッドネットワーク(FPN)とパスアグリゲーションネットワーク(PAN)を組み合わせて、マルチスケールの特徴融合を保証する。 特に際立つ特徴の一つがET-head(効率的なタスク連動ヘッド)であり、物体検出時の分類と位置特定における協調性を大幅に向上させます。

PP-YOLOE+は優れた平均精度(mAP)を達成する一方、PaddlePaddle への依存性により、PyTorchに慣れた研究者にとっては習得が困難な場合がある。これは、Paddleによる直接推論サポートを持たない異種エッジデバイスをターゲットとする場合、モデル展開プロセスをやや複雑にする可能性がある。

デプロイメントコンテキスト

PP-YOLOE+は百度の技術スタック内での展開に高度に最適化されており、本番環境でPaddle推論ツールを多用している場合に最適な選択肢となります。

PP-YOLOE+の詳細について。

YOLOv6.0: 産業用スループット

美団ビジョンAI部門が発表したYOLOv6.YOLOv6、産業用途向けの次世代物体検出器として明示的に設計され、GPU 上での大規模な処理能力を最優先に考慮している。

アーキテクチャのハイライト

YOLOv6.YOLOv6、特にNVIDIA TensorRTを使用する場合にハードウェア利用率を最大化するよう特別に設計されたEfficientRepバックボーンを備えています。 TensorRTを採用したNVIDIA GPUにおいて特に顕著です。v3.0アップデートでは、首部(neck)に双方向連結(BiC)モジュールを導入し、パラメータ数を大幅に増加させることなく空間特徴の保持性を向上させました。さらに、アンカーベースの安定性をモデル学習中に活用しつつ、リアルタイム推論時には高速なアンカーフリー構造を維持する「アンカー補助学習(AAT)」戦略を導入しています。

ただし、YOLOv6.YOLOv6サーバーグレードのGPU向けに高度に最適化されているため、制約のCPUのエッジデバイスに展開すると、レイテンシの向上が低下する場合がある。この特化性により、オフライン動画解析などの環境では優れた性能を発揮するが、小型のローカルハードウェアでは動的に最適化されたモデルに後れを取る可能性がある。

YOLOv6について詳しくはこちら

性能比較表

以下の表は、両アーキテクチャの異なるスケールバリエーションを直接比較し、主要なパフォーマンス指標を強調しています。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
PP-YOLOE+t64039.9-2.844.8519.15
PP-YOLOE+s64043.7-2.627.9317.36
PP-YOLOE+m64049.8-5.5623.4349.91
PP-YOLOE+l64052.9-8.3652.2110.07
PP-YOLOE+x64054.7-14.398.42206.59
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7

ユースケースと推奨事項

YOLOv6 、具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステム上の好みにYOLOv6 。

PP-YOLOE+を選択するタイミング

PP-YOLOE+は以下に最適です:

  • PaddlePaddle 統合: 百度のPaddlePaddleフレームワークとツール群を基盤に既存インフラを構築している組織。
  • Paddle Lite Edge Deployment:Paddle Lite または Paddle 推論エンジン向けに高度に最適化された推論カーネルを備えたハードウェアへのデプロイ。
  • 高精度サーバーサイド検出:フレームワーク依存を気にせず、高性能GPU 上で最大検出精度を優先するシナリオ。

YOLOv6を選択すべき時

YOLOv6 以下に推奨YOLOv6 :

  • 産業用ハードウェア対応デプロイメント:モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェア上で最適化されたパフォーマンスを提供するシナリオ。
  • 高速シングルステージ検出:制御された環境におけるリアルタイム動画処理GPU 上での生の推論速度を優先するアプリケーション。
  • 美団エコシステム統合: 美団のテクノロジースタックおよびデプロイメントインフラストラクチャ内で既に稼働しているチーム。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:

  • NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
  • CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
  • 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。

Ultralytics :従来のモデルを超えた進化

PP-YOLOE+とYOLOv6特定の問題に対する解決策を提供しますが、現代のAI開発には汎用性が高くメモリ効率に優れたワークフローが求められます。Ultralytics 、この点において比類のない開発者体験を提供します。統一されたPython により、従来のリサーチリポジトリでよく見られる膨大な設定オーバーヘッドなしに、最先端モデルのトレーニング、検証、デプロイをシームレスに行えます。

Ultralytics 、標準的な検出を超えた多様なビジョンタスクをネイティブにサポートします。これにはインスタンスセグメンテーション姿勢推定画像分類オリエンテッドバウンディングボックス(OBB)抽出が含まれます。さらに、トレーニング時のメモリ使用量を大幅に削減するよう高度に最適化されており、Transformerベースのモデルとは対照的です。 RT-DETR のように一般的に膨大なGPU 割り当てを必要とするトランスフォーマーベースのモデルとは対照的です。

YOLO26を発見:新たな基準

究極の最先端ビジョンモデルの導入を目指す組織にとって、Ultralytics (2026年1月リリース)は性能の限界を再定義します。複数の重要な革新により、旧世代モデルを大幅に凌駕します:

  • エンドツーエンドのNMS:YOLOv10の概念を基盤とし、YOLO26はノン・マキシマム・サプレッション(NMS)後処理を完全に排除しました。このネイティブなエンドツーエンドアプローチにより、予測可能な超低遅延推論が保証され、リアルタイム安全システムに不可欠です。
  • 最大43%高速CPU :アーキテクチャから分布焦点損失(DFL)を除去することで、YOLO26はエッジコンピューティングや専用GPU のない環境向けに大幅に最適化されています。
  • MuSGDオプティマイザー:LLMトレーニングの安定性をビジョンモデルに統合したこのハイブリッドオプティマイザー(Moonshot AIに着想を得た)は、迅速な収束と極めて安定したカスタムトレーニングセッションを実現します。
  • ProgLoss + STAL:これらの先進的な損失関数により、小型物体認識において顕著な改善が実現され、航空ドローン画像や混雑したシーン分析などのアプリケーションに不可欠です。

将来を見据えたパイプライン構築

新しいプロジェクトを構築する場合、レガシーアーキテクチャを回避しYOLO26を採用することを強く推奨します。そのメモリ効率とNMS高速処理により、本番環境への移行が大幅に容易になります。

シームレスな実装

Python を使用した最先端モデルのトレーニングとエクスポートは驚くほど簡単です。以下の例は、最新のYOLO26モデルをトレーニングし、ONNX エクスポートする方法を示しています:

from ultralytics import YOLO

# Load the cutting-edge YOLO26 small model
model = YOLO("yolo26s.pt")

# Train the model on the COCO8 example dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on a test image (NMS-free speed)
predict_results = model.predict("https://ultralytics.com/images/bus.jpg")

# Export to ONNX format for edge deployment
model.export(format="onnx")

古いワークフローに深く組み込まれているが、現代的な安定性を求めるチームは、Ultralyticsの探索を検討してください。 Ultralytics YOLO11 も優れた移行手段となります。Ultralytics 完全なUltralytics 支えられた包括的なタスクの汎用性を提供します。


コメント