コンテンツにスキップ

YOLOv6.0 対 EfficientDet: 包括的な技術比較

コンピュータービジョンプロジェクトに最適なアーキテクチャを選択するには、速度、精度、およびデプロイメントの実現可能性の間のトレードオフを深く理解する必要があります。この比較ページでは、YOLOv6-3.0とEfficientDetという2つの異なる物体検出モデルの詳細な分析を提供します。両モデルともこの分野に大きく貢献していますが、現代のエッジデプロイメントや迅速なプロトタイピングは、Ultralytics Platformのようなより統一されたフレームワークから恩恵を受けることが多いです。

以下は、これらのモデル間のパフォーマンスの違いを視覚化するインタラクティブなチャートで、それぞれのレイテンシーと精度プロファイルを理解するのに役立ちます。

YOLOv6.0: 産業グレードのスループット

YOLOv6.YOLOv6、美団(Meituan)が産業用途向けに特化した高性能なシングルステージ物体検出フレームワークとして明示的に設計したものです。GPU 上でのスループット最大化に重点を置いており、高速製造ラインやオフライン動画解析に最適な選択肢となります。

  • 著者:Chuyi Li、Lulu Li、Yifei Geng、Hongliang Jiang、Meng Cheng、Bo Zhang、Zaidan Ke、Xiaoming Xu、Xiangxiang Chu
  • 組織:美団(Meituan
  • 日付: 2023-01-13
  • Arxiv: 2301.05586
  • GitHub:YOLOv6

アーキテクチャのハイライト

YOLOv6.YOLOv6アーキテクチャは、異なるスケール間での特徴融合を改善するために双方向連結(BiC)モジュールを採用している。高い推論速度を確保するため、GPU 向けに高度に最適化されたEfficientRepバックボーンを活用している。 さらに、アンカー補助学習(AAT)戦略を採用し、学習フェーズではアンカーベース検出器とアンカーフリー検出器の両方の利点を融合させつつ、低遅延を実現するため推論パイプラインはアンカーフリーを維持している。

長所と短所

YOLOv6 GPU 利用可能な環境で真価を発揮し、TensorRTを用いた驚異的な高速リアルタイム推論を実現します。ただし、特定のハードウェア最適化への依存度が高いため、CPU のエッジAIデバイスでは性能が最適化されない場合があります。さらに、一部の量子化はサポートしているものの、エコシステムにはUltralytics に見られる包括的な簡潔さが欠けています。

YOLOv6について詳しくはこちら

EfficientDet: スケーラブルなAutoMLアーキテクチャ

Google Researchによって開発されたEfficientDetは、根本的に異なるアプローチを採用しています。ネットワークを手作業で設計する代わりに、著者らは自動機械学習 (AutoML)を活用して、パラメータ、FLOPs、および精度のバランスを取るスケーラブルなアーキテクチャを設計しました。

  • 著者:タン・ミンシン、パン・ルーミン、クオック・V・レ
  • 組織:Google
  • 日付: 2019年11月20日
  • Arxiv: 1911.09070
  • GitHub:google

アーキテクチャのハイライト

EfficientDetは、簡単かつ迅速なマルチスケール特徴融合を可能にする双方向特徴ピラミッドネットワーク(BiFPN)を導入しました。すべてのバックボーン、特徴ネットワーク、およびボックス/クラス予測ネットワークの解像度、深さ、幅を均一にスケーリングする複合スケーリング手法と組み合わせることで、EfficientDetモデルは非常にコンパクトなd0から大規模なd7まで多岐にわたります。

長所と短所

EfficientDetは非常にパラメータ効率が高いです。古い物体検出器と比較して、比較的少ないパラメータで強力な平均平均精度(mAP)を達成します。しかし、このアーキテクチャはレガシーなTensorFlowエコシステムに深く根ざしています。その結果、最適化されたPyTorch実装と比較して、複雑な依存関係管理、遅いトレーニングサイクル、およびトレーニング中の高いメモリ要件が生じます。さらに、最新のGPUでの推論速度は、最新のYOLOアーキテクチャよりも大幅に遅いです。

EfficientDetの詳細について。

詳細な性能比較

以下の表は、YOLOv6.YOLOv6とEfficientDetの技術仕様を様々な指標で比較したものです。YOLOv6.YOLOv6 GPU 優位である一方、EfficientDetは大幅な遅延をmAP 高いmAP までスケールアップする点に注目してください。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7
EfficientDet-d064034.610.23.923.92.54
EfficientDet-d164040.513.57.316.66.1
EfficientDet-d264043.017.710.928.111.0
EfficientDet-d364047.528.019.5912.024.9
EfficientDet-d464049.742.833.5520.755.2
EfficientDet-d564051.572.567.8633.7130.0
EfficientDet-d664052.692.889.2951.9226.0
EfficientDet-d764053.7122.0128.0751.9325.0

レイテンシ対スループット

モデルを比較する際、FLOPsやパラメータ数は必ずしも実世界のレイテンシと完全に対応しないことに留意してください。YOLOv6.YOLOv6 TensorRT最適化されており、下位モデルのEfficientDetよりも高いFLOPsを持つにもかかわらず、ミリ秒単位の速度を達成しています。

Ultralyticsエコシステムの利点

YOLOv6.YOLOv6やEfficientDetが特定のニッチ分野に対応する一方で、現代のコンピュータビジョンプロジェクトには汎用性、使いやすさ、そしてよく整備されたエコシステムが求められます。ここで活躍するのが Ultralytics YOLO モデルが真に優れている点です。

使いやすさとトレーニング効率

EfficientDetが複雑なTensorFlow 操作を必要とするのとは異なり、Ultralytics 直感的なPyTorch 構築されています。Ultralytics 、機械学習ライフサイクル全体を簡素化する合理化されたAPIを提供します。Ultralytics トレーニングCUDA 大幅に少なくて済むため、実験が加速され、計算コストが削減されます。

比類なき汎用性

YOLOv6.YOLOv6とEfficientDetYOLOv6主に物体検出に特化しています。これに対し、Ultralytics 本質的にマルチモーダルです。単一のインターフェースで、インスタンスセグメンテーション姿勢推定画像分類およびオリエンテッドバウンディングボックス(OBB)タスク向けのモデルを学習できます。

Ultralytics YOLO26のご紹介

究極のパフォーマンスバランスを追求する開発者にとって、Ultralytics YOLO26はパラダイムシフトを象徴します。2026年1月にリリースされたこのモデルは、YOLOv6とEfficientDetの両方を凌駕するいくつかの画期的なイノベーションを導入しています。

  • エンドツーエンドのNMSフリー設計: YOLO26は、Non-Maximum Suppression (NMS) の後処理の必要性をネイティブに排除し、レイテンシのばらつきを大幅に低減し、エッジデバイスでのデプロイメントロジックを簡素化します。
  • MuSGDオプティマイザ: LLMトレーニングに着想を得たこのハイブリッドオプティマイザは、安定したトレーニングと驚異的な速さの収束を保証します。
  • 最大43%高速なCPU推論: Distribution Focal Loss (DFL) の除去により、YOLO26は、従来のモデルと比較して、CPUおよび低電力IoTデバイス上で大幅に効率的です。
  • プログレッシブ損失 + 遅延 These advanced loss functions deliver massive improvements in small object recognition, making YOLO26 ideal for drone and aerial imagery applications.

YOLO26についてさらに詳しく

ユースケースと推奨事項

YOLOv6とEfficientDetのどちらを選択するかは、特定のプロジェクト要件、デプロイメントの制約、およびエコシステムの好みに依存します。

YOLOv6を選択すべき時

YOLOv6 以下に最適YOLOv6 :

  • 産業用ハードウェア対応デプロイメント: モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェアで最適化されたパフォーマンスを提供するシナリオです。
  • 高速シングルステージdetect: 制御された環境でのリアルタイムビデオ処理のために、GPUでの生の推論速度を優先するアプリケーション。
  • 美団エコシステム統合: 美団の技術スタックとデプロイメントインフラストラクチャ内で既に作業しているチーム。

EfficientDetを選択するタイミング

EfficientDetは以下の用途に推奨されます。

  • Google CloudおよびTPUパイプライン: EfficientDetがネイティブ最適化されているGoogle Cloud Vision APIまたはTPUインフラストラクチャと深く統合されたシステム。
  • 複合スケーリング研究:バランスの取れたネットワークの深さ、幅、解像度のスケーリング効果を研究することに焦点を当てた学術的なベンチマーク。
  • TFLiteを介したモバイルデプロイメント: Androidまたは組み込みLinuxデバイス向けにTensorFlow Liteのエクスポートを特に必要とするプロジェクト。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。

  • NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
  • CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
  • 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。

実装例:YOLO26のトレーニング

以下のコードは、Ultralytics しています。最先端モデルのトレーニングは、重みをロードし、データを指定するだけの簡単な作業です。

from ultralytics import YOLO

# Load the highly optimized YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train the model on a dataset with automatic hyperparameter handling
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Validate the model to check mAP metrics
metrics = model.val()
print(f"Validation mAP50-95: {metrics.box.map}")

# Run inference on a test image seamlessly
prediction = model("https://ultralytics.com/images/bus.jpg")

検討すべきその他のモデル

コンピュータビジョンモデルのより広範な領域を探求しているなら、以下の代替案を検討してください:

  • YOLO11: YOLO26の非常に成功した前身モデルであり、堅牢なマルチタスク機能と広範なコミュニティサポートを提供します。
  • YOLOv10: NMSフリートレーニングを導入した最初のYOLOアーキテクチャであり、現代のエンドツーエンド検出への道を開きました。
  • RT-DETR: 従来のCNNよりもTransformerベースのアーキテクチャやアテンションメカニズムが好まれるシナリオ向けです。

結論

YOLOv6.YOLOv6産業用GPU 優れたGPU を提供し、EfficientDetはスケーラブルでパラメータ効率の高いネットワーク構築におけるAutoMLの可能性を示しているが、両モデルとも導入の容易さと現代的なマルチタスク対応能力において限界がある。

現実世界のアプリケーションの大多数、すなわちモバイルエッジデプロイメントからクラウドベースの分析までにおいて、Ultralyticsエコシステムは比類ないパフォーマンスバランスを提供します。YOLO26を採用することで、開発者は最先端のNMSフリー推論、小オブジェクト向け高度損失関数、そしてプロトタイプから本番環境へのパスを劇的に加速する統一された十分に文書化されたトレーニングパイプラインにアクセスできます。


コメント