コンテンツにスキップ

RTDETRv2 vs. YOLO11:技術比較

適切な物体検出モデルの選択は、あらゆるコンピュータビジョンプロジェクトのパフォーマンス、効率、スケーラビリティに直接影響を与える重要な決定です。このページでは、2つの強力なアーキテクチャ、BaiduのTransformerベースのモデルであるRTDETRv2と、有名なYOLOシリーズの最新の最先端モデルであるUltralytics YOLO11との詳細な技術的比較を提供します。アーキテクチャの違い、パフォーマンス指標、理想的なユースケースを掘り下げて、ニーズに最適なモデルを判断できるよう支援します。

RTDETRv2: リアルタイム検出 Transformer v2

RTDETRv2(Real-Time Detection Transformer v2)は、Baiduの研究者によって開発された物体検出器です。特に複雑なシーンで高精度を実現するために、Vision Transformer(ViT)アーキテクチャを活用しています。これは、Transformerベースのモデルをリアルタイムアプリケーションで利用可能にする上で重要な一歩となります。

著者: Wenyu Lv、Yian Zhao、Qinyao Chang、Kui Huang、Guanzhong Wang、Yi Liu
組織: Baidu
日付: 2023-04-17 (Initial RT-DETR)、2024-07-24 (RTDETRv2の改善)
Arxiv: https://arxiv.org/abs/2304.08069https://arxiv.org/abs/2407.17140
GitHub: https://github.com/lyuwenyu/RT-DETR/tree/main/rtdetrv2_pytorch
ドキュメント: https://github.com/lyuwenyu/RT-DETR/tree/main/rtdetrv2_pytorch#readme

アーキテクチャと主な機能

RTDETRv2は、効率的な特徴抽出のための従来のCNN バックボーンと、Transformerベースのエンコーダ・デコーダを組み合わせたハイブリッド設計を採用しています。コアとなるイノベーションは、自己注意機構の使用にあり、これによりモデルは画像内の異なる部分間のグローバルな関係を捉えることができます。このグローバルなコンテキストの理解は、特に遮蔽されたオブジェクトや密集したオブジェクトの検出精度を向上させるのに役立ちます。アンカーフリー検出器として、定義済みのアンカーボックスを必要としないため、検出パイプラインを簡素化します。

長所

  • 高精度: Transformerアーキテクチャにより、RTDETRv2は優れた平均適合率 (mAP)スコアを達成でき、多くの場合、複雑な学術ベンチマークで優れています。
  • グローバルコンテキストの理解: 画像全体をコンテキストに応じて処理する能力により、複雑なオブジェクトインタラクションがあるシーンで堅牢なパフォーマンスを発揮します。
  • GPUでのリアルタイム処理: NVIDIA TensorRTのようなツールで最適化すると、RTDETRv2はハイエンドGPU上でリアルタイムの速度を達成できます。

弱点

  • 高い計算コスト: Transformerモデルは、リソースを大量に消費することで知られています。RTDETRv2は、パラメータ数とFLOPsが多いため、トレーニングと推論の両方に強力なGPUが必要です。
  • 集中的なメモリ使用量: RTDETRv2のトレーニングには、YOLO11のようなCNNベースのモデルと比較して、大幅に多くのCUDAメモリが必要となるため、ハードウェアが限られているユーザーはアクセスできません。
  • トレーニングが遅い: Transformerアーキテクチャの複雑さにより、トレーニング時間が長くなります。
  • 限定的なエコシステム: 強力な研究貢献である一方で、Ultralyticsが提供する包括的でユーザーフレンドリーなエコシステム、広範なドキュメント、および活発なコミュニティサポートが不足しています。

理想的なユースケース

RTDETRv2は、可能な限り最高の精度を達成することが主な目標であり、計算リソースが制約とならないアプリケーションに最適です。

  • 自動運転: 精度が最重要視される自動運転車の認識システム向け。
  • 高度なロボティクス: ロボットが複雑で動的な環境をナビゲートし、インタラクションすることを可能にします。ロボティクスにおけるAIの役割の重要な側面です。
  • 衛星画像解析: グローバルなコンテキストの理解が正確な検出に不可欠な高解像度画像を分析します。

RTDETRの詳細について。

Ultralytics YOLO11:スピードと汎用性の頂点

Ultralytics YOLO11は、世界で最も人気のあるオブジェクト検出シリーズの最新の進化です。UltralyticsのGlenn JocherとJing Qiuによって作成され、YOLOv8などの前身のレガシーに基づいて、比類のない速度、精度、使いやすさを実現します。

著者: Glenn Jocher、Jing Qiu
所属: Ultralytics
日付: 2024-09-27
GitHub: https://github.com/ultralytics/ultralytics
ドキュメント: https://docs.ultralytics.com/models/yolo11/

アーキテクチャと主な機能

YOLO11は、高度に最適化されたシングルステージCNNアーキテクチャを特徴としています。その設計は効率に重点を置いており、精度を犠牲にすることなく、パラメータ数と計算負荷を削減する効率化されたネットワークを備えています。これにより、YOLO11は非常に高速になり、リソースに制約のあるエッジデバイスから強力なクラウドサーバーまで、幅広いハードウェアに適しています。

YOLO11の真の力は、その多様性とそれが存在する堅牢なエコシステムにあります。これは、単一の統合フレームワーク内で、物体検出インスタンスセグメンテーション画像分類ポーズ推定、および傾斜バウンディングボックス(OBB)検出を実行できるマルチタスクモデルです。

長所

  • 卓越したパフォーマンスバランス: YOLO11は、速度と精度の間で最先端のトレードオフを提供し、実際のアプリケーションに非常に適しています。
  • 使いやすさ: シンプルなPython APICLI、豊富なドキュメント、および数え切れないほどのチュートリアルにより、YOLO11を始めるのは非常に簡単です。
  • 充実したエコシステム: YOLO11は、Ultralyticsの活発な開発、強力なコミュニティサポート、およびエンドツーエンドのMLOpsのためのUltralytics HUBのようなツールとのシームレスな統合によって支えられています。
  • Training and Memory Efficiency: YOLO11は、RTDETRv2のようなトランスフォーマーベースのモデルよりも大幅に高速にトレーニングでき、必要なメモリもはるかに少ないため、より幅広い開発者や研究者がアクセスできます。
  • 多様性: 1つのモデルで複数のビジョンタスクを処理できるため、検出のみに焦点を当てたRTDETRv2のような競合製品にはない包括的なソリューションを提供します。
  • Deployment Flexibility: YOLO11は、ONNXやTensorRTなどのさまざまな形式へのエクスポートに最適化されており、CPU、GPU、およびエッジプラットフォーム全体でスムーズなデプロイを保証します。

弱点

  • 非常に高精度ですが、最大のYOLO11モデルは、特定の学術ベンチマークでのmAPにおいて、最大のRTDETRv2モデルにわずかに性能で劣る可能性があります。ただし、これは多くの場合、速度とリソースにおいて大きなコストを伴います。

理想的なユースケース

YOLO11は、高速、高精度、かつ信頼性の高いビジョンモデルを必要とするほぼすべてのアプリケーションで優れた性能を発揮します。

  • 産業オートメーション: 生産ラインでの品質管理と欠陥検出。
  • セキュリティと監視: リアルタイムのセキュリティアラームシステムと監視ソリューションを強化します。
  • 小売分析: 在庫管理の改善と顧客行動の分析。
  • スマートシティ: 交通管理や公共安全監視などのアプリケーションを可能にします。

YOLO11の詳細について。

性能の直接対決:精度と速度

パフォーマンスを比較すると、どちらのモデルも非常に有能ですが、異なる優先順位に対応していることは明らかです。RTDETRv2は最大の精度を追求しますが、これはより高い遅延とリソース要件を伴います。対照的に、Ultralytics YOLO11は最適なバランスを実現するように設計されています。

以下の表は、RTDETRv2-xが競合性のあるmAPを達成している一方で、YOLO11xモデルはより少ないパラメータとFLOPsでそれを上回っていることを示しています。さらに重要なことに、YOLO11モデルは、特にCPU上で、はるかに優れた推論速度を示し、すべてのモデルサイズでGPU上でも大幅に高速です。例えば、YOLO11lはRTDETRv2-lの精度に匹敵しますが、T4 GPU上で1.5倍以上高速です。この効率性により、YOLO11は本番環境にとってはるかに実用的な選択肢となります。

モデル サイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
RTDETRv2-s 640 48.1 - 5.03 20 60
RTDETRv2-m 640 51.9 - 7.51 36 100
RTDETRv2-l 640 53.4 - 9.76 42 136
RTDETRv2-x 640 54.3 - 15.03 76 259
YOLO11n 640 39.5 56.1 1.5 2.6 6.5
YOLO11s 640 47.0 90.0 2.5 9.4 21.5
YOLO11m 640 51.5 183.2 4.7 20.1 68.0
YOLO11l 640 53.4 238.6 6.2 25.3 86.9
YOLO11x 640 54.7 462.8 11.3 56.9 194.9

トレーニング、ユーザビリティ、およびエコシステム

生の性能だけでなく、開発者の体験も重要な要素です。RTDETRv2のようなモデルのトレーニングは、複雑でリソースを大量に消費する作業になる可能性があり、多くの場合、深い専門知識と強力なハードウェアが必要です。そのエコシステムは主にGitHubリポジトリを中心に展開されており、研究には役立つものの、本格的なフレームワークのような包括的なサポートは不足しています。

それとは対照的に、Ultralytics YOLO11は、非常に合理化されたアクセスしやすいエクスペリエンスを提供します。トレーニングプロセスは効率的で、十分に文書化されており、必要なメモリが大幅に少ないため、より控えめなハードウェアを使用しているユーザーにも門戸が開かれています。Ultralyticsエコシステムは、簡単なセットアップとトレーニングから、検証、デプロイメント、およびUltralytics HUBを使用したMLOps管理まで、完全なソリューションを提供します。この全体的なアプローチにより、開発サイクルが加速され、強力なAIソリューションを作成するための参入障壁が低くなります。

結論: どのモデルを選ぶべきか?

RTDETRv2は、高精度な物体検出のためのTransformerの可能性を示す、印象的な学術的成果です。特定の複雑なデータセットで可能な限り最高のmAPを達成することが計算コストよりも重要な、研究中心のプロジェクトに適した選択肢です。

しかし、圧倒的多数の実世界のアプリケーションにとって、Ultralytics YOLO11 が明確な勝者です。この分野では比類のない、速度、精度、効率の優れたブレンドを提供します。複数のタスクにわたる汎用性と、使いやすく適切にメンテナンスされたエコシステムとの組み合わせにより、開発者、研究者、企業にとって最も実用的で生産的、かつ強力な選択肢となっています。エッジまたはクラウド向けのソリューションを構築する場合でも、YOLO11 は、Transformer ベースのアーキテクチャのオーバーヘッドと複雑さなしに、最先端のパフォーマンスを提供します。

その他のモデル比較

YOLO11とRT-DETRと他の主要モデルとの比較にご興味があれば、以下の比較をご覧ください。



📅 1年前に作成 ✏️ 1か月前に更新

コメント