コンテンツにスキップ

YOLOv10 EfficientDet: リアルタイム物体検出アーキテクチャの比較

物体検出に最適なニューラルネットワークの選択は、現代のコンピュータビジョンシステムの成否を左右する重要な決定事項である。この分野に多大な影響を与えた二つの主要なアーキテクチャは YOLOv10EfficientDetである。両者とも精度を最大化しつつ計算負荷を最小化することを目指しているが、この目標達成に向けたアーキテクチャアプローチは大きく異なる。

この包括的なガイドでは、それらのユニークな設計、トレーニング手法、展開特性に深く掘り下げ、開発者や機械学習エンジニアがビジョンAIアプリケーション向けにデータ駆動型の意思決定を行う手助けをします。組み込みエッジAIデバイスから高性能なクラウドGPUに至るまで、様々なハードウェア環境におけるパフォーマンスを検証します。

YOLOv10:NMS先駆者

リアルタイム遅延の限界を押し広げるために開発されたYOLOv10は、YOLOファミリーにおける最も根強いボトルネックの1つであるNon-Maximum Suppression (NMS)に取り組みました。この後処理ステップを排除することで、モデルは非常に予測可能な遅延を実現し、これは自動運転車や高速ロボットにとって極めて重要です。

アーキテクチャの革新

YOLOv10 NMSトレーニングのための一貫した二重アサインメントYOLOv10 。トレーニング時には、一対多および一対一のラベルアサインメントの両方を活用し、ネットワークが豊富な表現を学習できるようにすると同時に、推論時にはオブジェクトごとに単一の最適なバウンディングボックスをネイティブに出力する。このアーキテクチャはまた、効率性と精度を重視した包括的な設計を取り入れており、分類ヘッドを合理化し、以前の反復で見られた計算上の冗長性を削減している。

モデルの詳細

合理化されたデプロイメント

YOLOv10はNMSステップを削除しているため、バウンディングボックスフィルタリングのためのカスタムランタイムプラグインに依存することなく、ONNX formatNVIDIA TensorRTのような形式へのエクスポートが本質的に容易になります。

長所:

  • 予測可能な推論: NMSの削除により、シーン内のオブジェクト数に関わらず一貫した推論時間が保証されます。
  • 低メモリ使用量: RT-DETRのようなTransformerベースのモデルと比較して、YOLOv10は、トレーニングと推論の両方で大幅に低いメモリ要件を実現します。
  • 優れた速度と精度のトレードオフ: パフォーマンス指標を犠牲にすることなく、低レイテンシーシナリオ向けに特化して最適化されています。

弱点:

YOLOv10について詳しくはこちら

EfficientDet: スケーラブルでバランスの取れた

Google が発表したEfficientDetは、体系的なネットワークスケーリングの観点から物体検出にアプローチする。EfficientNet画像分類バックボーンを基盤とし、新たな特徴融合メカニズムを導入している。

アーキテクチャの革新

EfficientDetの中核は双方向特徴ピラミッドネットワーク(BiFPN)であり、これにより容易かつ高速なマルチスケール特徴融合が可能となる。 従来のFPNが特徴量をトップダウンで加算するのみであるのに対し、BiFPNは双方向のクロススケール接続と学習可能な重みを導入し、異なる入力特徴の重要性を学習します。さらにEfficientDetは、全バックボーン・特徴ネットワーク・ボックス/クラス予測ネットワークにおいて解像度・深度・幅を均一にスケーリングする複合スケーリング手法を採用しています。

モデルの詳細

長所:

  • 高効率: 優れたパラメータ対精度比により、より小型の -d0 宛先 -d2 バリエーションは非常に軽量です。
  • 原則に基づいたスケーリング: 複合スケーリングにより、ユーザーは自身の正確な計算予算に合うモデルサイズを簡単に選択できます。

弱点:

  • レガシーフレームワーク統合: 元の実装は古いTensorFlowバージョンに大きく依存しており、これが現代のデプロイメントパイプラインを複雑にする可能性があります。
  • 遅いトレーニング: EfficientDetをゼロからトレーニングするのは非常に時間がかかり、YOLOアーキテクチャの迅速な収束と比較して、慎重なハイパーパラメータチューニングが必要です。
  • 推論速度: パラメータ効率は高いものの、複雑なBiFPN操作は、高度に最適化されたYOLOモデルと比較して、標準的なハードウェアでの実世界における推論速度が遅くなる傾向があります。

EfficientDetの詳細について。

性能とベンチマーク

これらのモデルの真価は、COCO などの標準ベンチマークにおける実証的性能にこそある。下表は、NVIDIA GPUにおけるパラメータ数、浮動小数点演算量(FLOPs)、推論レイテンシの重要な差異を示している。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv10n64039.5-1.562.36.7
YOLOv10s64046.7-2.667.221.6
YOLOv10m64051.3-5.4815.459.1
YOLOv10b64052.7-6.5424.492.0
YOLOv10l64053.3-8.3329.5120.3
YOLOv10x64054.4-12.256.9160.4
EfficientDet-d064034.610.23.923.92.54
EfficientDet-d164040.513.57.316.66.1
EfficientDet-d264043.017.710.928.111.0
EfficientDet-d364047.528.019.5912.024.9
EfficientDet-d464049.742.833.5520.755.2
EfficientDet-d564051.572.567.8633.7130.0
EfficientDet-d664052.692.889.2951.9226.0
EfficientDet-d764053.7122.0128.0751.9325.0

上記の通り、YOLOv10は生の推論速度において大きな優位性を維持しています。例えば、YOLOv10-Sは、わずか2.66msのTensorRTレイテンシで46.7 mAPを達成する一方、EfficientDet-d3は同様の47.5 mAPを達成しますが、約20msかかります。このため、YOLOv10はリアルタイムビデオストリーミングや高速製造パイプラインにおいて圧倒的に優れています。

ユースケースと推奨事項

YOLOv10とEfficientDetのどちらを選択するかは、特定のプロジェクト要件、デプロイメントの制約、およびエコシステムの好みに依存します。

YOLOv10を選択すべき時

YOLOv10 以下に最適YOLOv10 :

  • NMSフリーのリアルタイムdetect: Non-Maximum Suppressionなしのエンドツーエンドのdetectから恩恵を受け、デプロイの複雑さを軽減するアプリケーション。
  • 速度と精度のバランスの取れたトレードオフ: さまざまなモデルスケールにおいて、推論速度と検出精度の強力なバランスを必要とするプロジェクト。
  • 一貫したレイテンシが求められるアプリケーション: ロボット工学や自律システムなど、予測可能な推論時間が重要となるデプロイメントシナリオ。

EfficientDetを選択するタイミング

EfficientDetは以下の用途に推奨されます。

  • Google CloudおよびTPUパイプライン: EfficientDetがネイティブ最適化されているGoogle Cloud Vision APIまたはTPUインフラストラクチャと深く統合されたシステム。
  • 複合スケーリング研究:バランスの取れたネットワークの深さ、幅、解像度のスケーリング効果を研究することに焦点を当てた学術的なベンチマーク。
  • TFLiteを介したモバイルデプロイメント: Androidまたは組み込みLinuxデバイス向けにTensorFlow Liteのエクスポートを特に必要とするプロジェクト。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。

  • NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
  • CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
  • 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。

現代の標準:Ultralytics の登場

YOLOv10 NMSパラダイムYOLOv10 、EfficientDetが原理に基づいたスケーリングを実現した一方で、コンピュータビジョン分野は進化を続けています。今日新たなプロジェクトを開始する開発者にとって、Ultralytics 疑いようのない最先端技術です。2026年1月にリリースされた本モデルは、あらゆる分野の優れた点を統合し、Ultralytics 内で高度に洗練された実運用可能なパッケージとして提供されます。

YOLO26が競合製品を凌駕する理由

  1. エンドツーエンドのNMSフリー設計: YOLO26は、YOLOv10で開拓されたエンドツーエンドのNMSフリーアーキテクチャをネイティブに採用しており、デプロイメントを合理化し、推論を高速化します。
  2. CPU推論が最大43%高速化: 専用アクセラレータを持たないエッジデバイス向けに、YOLO26は標準CPU上で効率的に動作するように特別に最適化されています。
  3. Advanced MuSGD Optimizer: LLMトレーニングの革新に触発され、YOLO26はSGDとMuonのハイブリッドを利用して、非常に安定したトレーニングと迅速な収束を実現し、EfficientDetと比較してトレーニング効率を大幅に向上させます。
  4. ProgLoss + STAL: これらの改良された損失関数は、小さなオブジェクトの認識において顕著な向上をもたらし、YOLOv10およびEfficientDetの両方にとって従来の弱点を克服します。
  5. DFLの削除: Distribution Focal Lossを削除することで、YOLO26はOpenVINOやCoreMLを含むほぼすべてのハードウェア形式にシームレスにエクスポートできます。

さらに、YOLO26は比類のない汎用性を提供します。YOLOv10 純粋な検出YOLOv10 、YOLO26はUltralytics Python 方向付きバウンディングボックス画像分類、インスタンスセグメンテーションをシームレスに処理します。

適切に維持されたエコシステム

YOLO11YOLOv8はどちらもUltralyticsエコシステム内で完全にサポートされています。性能、安定性、および長期サポートの最適な組み合わせのために、公式にメンテナンスされているUltralyticsモデルの使用を推奨します。

Ultralyticsによる使いやすさ

Ultralytics が提供する整備されたエコシステムは、開発者の円滑な体験をUltralytics 。モデルのトレーニング、検証、TensorRT エクスポートは、わずか数行のコードで実現できます。

from ultralytics import YOLO

# Load a pre-trained YOLOv10 model (or upgrade to YOLO26 natively)
model = YOLO("yolov10n.pt")

# Train the model efficiently on a custom dataset
model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run inference and immediately visualize results
results = model("https://ultralytics.com/images/bus.jpg")
results[0].show()

# Export for rapid deployment
model.export(format="engine", half=True)

結論

YOLOv10 比較する場合、選択は主に使用するフレームワークの好みと速度制約に依存します。EfficientDetはTensorFlow 内でモデルスケーリングを行う構造化されたアプローチを提供します。一方、YOLOv10 NMSアーキテクチャにより、優れたリアルタイム性能、低いメモリ使用量、よりシンプルなデプロイメントパスYOLOv10 。

最高のパフォーマンスバランス、使いやすさ、およびマルチタスクの多様性を実現するには、Ultralytics PlatformへのアップグレードとYOLO26の利用を強くお勧めします。これは、YOLOv10のNMSフリーの革新を取り入れ、MuSGDオプティマイザのような最先端のトレーニング技術を適用し、大規模なグローバルコミュニティにサポートされた堅牢なオープンソースフレームワークに包み込んでいます。


コメント