コンテンツにスキップ

EfficientDet vsYOLOv6.0:産業用物体検出の包括的ガイド

適切なニューラルネットワークアーキテクチャの選択は、あらゆるコンピュータビジョンプロジェクトの成功の礎となる。本稿では、物体検出分野における二つの基幹モデルGoogle(Meituan)YOLOv6——を高度に技術的な観点から比較する。

両アーキテクチャはそれぞれリリース時に大きな飛躍をもたらしたが、人工知能の急速な進化により、より汎用性が高くエッジ最適化されたソリューションが登場している。以下では、YOLOv6の性能、トレーニング手法、アーキテクチャの微妙な差異を分析し、開発者が最先端のデプロイメントのためにUltralytics のような現代的なエコシステムへ移行する理由を探る。

EfficientDet: スケーラブルなAutoMLアーキテクチャ

Google チームによって開発されたEfficientDetは、バックボーンと特徴ネットワークの両方を最適化するために自動機械学習(AutoML)に依存することで、パラダイムシフトをもたらした。

アーキテクチャの革新

EfficientDetの中核となる革新はBiFPN(双方向特徴ピラミッドネットワーク)である。従来のFPNが特徴を単なるトップダウン方式で集約するのとは異なり、BiFPNは複雑な双方向のクロススケール接続を可能にし、学習可能な重みを用いて異なる入力特徴の重要性を理解する。これはネットワークの解像度、深さ、幅を同時に均一にスケーリングする複合スケーリング手法と組み合わされている。

長所と短所

EfficientDetはパラメータ数に対して優れた平均精度(mAP)を達成し、その時代において高い精度を実現している。ただし、従来の TensorFlow 環境に依存しています。この依存関係により、PyTorchワンステージ検出器と比較して、複雑なハイパーパラメータ調整、トレーニング時の高いメモリ使用量、標準ハードウェア上での遅い推論レイテンシが生じることが多々あります。

EfficientDetの詳細について。

YOLOv6.0: 産業用スループットのチャンピオン

YOLOv6.YOLOv6、大量処理の特定のニーズに対応するためにリリースされた畳み込みニューラルネットワーク(CNN)であり、NVIDIA A100 GPUなどのハードウェアアクセラレータ上でスループットを最大化するために一から設計されています。

アーキテクチャの革新

YOLOv6.YOLOv6、正確な局所化信号を維持するため、ネック部において従来のモジュールを双方向連結(BiC)モジュールに置き換えています。さらに、アンカー補助学習(AAT)戦略を採用しています。AATは学習段階でアンカーベースの補助ブランチを統合し、追加の勾配ガイダンスを提供します。このブランチは推論時には破棄され、アンカーを使用しない処理速度の優位性を維持します。

長所と短所

ハードウェアに優しいEfficientRepバックボーンを基盤とするYOLOv6、専用GPUでのバッチ処理が可能な高速産業製造環境において優れた性能を発揮する。しかし、再パラメータ化操作への依存度が高いため、エッジデバイスやCPU のみに依存する環境に展開した場合、速度が大幅に低下する可能性がある。

YOLOv6-3.0の詳細はこちら

パフォーマンス比較

生の性能指標を理解することは、特定のデプロイ制約に合致するモデルを選択する上で基本となります。以下に、精度、速度、および計算リソース使用量の詳細な内訳を示します。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
EfficientDet-d064034.610.23.923.92.54
EfficientDet-d164040.513.57.316.66.1
EfficientDet-d264043.017.710.928.111.0
EfficientDet-d364047.528.019.5912.024.9
EfficientDet-d464049.742.833.5520.755.2
EfficientDet-d564051.572.567.8633.7130.0
EfficientDet-d664052.692.889.2951.9226.0
EfficientDet-d764053.7122.0128.0751.9325.0
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7

ハードウェアに関する考慮事項

YOLOv6.YOLOv6 GPU上で驚異的なTensorRT を発揮しますが、制約のあるエッジハードウェアやCPUに展開する開発者は、Ultralytics のような低電力環境向けに特別に設計されたアーキテクチャから大きな恩恵を得られます。

ユースケースと推奨事項

YOLOv6 、具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステム上の好みにYOLOv6 。

EfficientDetを選択するタイミング

EfficientDetは以下に最適な選択肢です:

  • Google およびTPU : Google Vision API またはTPU と深く統合されたシステムで、EfficientDet がネイティブ最適化を実現します。
  • 複合スケーリング研究:バランスの取れたネットワークの深さ、幅、および解像度スケーリングの効果を研究する学術的ベンチマーク。
  • TFLiteによるモバイル展開: Android 組み込みLinuxデバイス向けにTensorFlow エクスポートを特に必要とするプロジェクト。

YOLOv6を選択すべき時

YOLOv6 以下に推奨YOLOv6 :

  • 産業用ハードウェア対応デプロイメント:モデルのハードウェア対応設計と効率的な再パラメータ化により、特定のターゲットハードウェア上で最適化されたパフォーマンスを提供するシナリオ。
  • 高速シングルステージ検出:制御された環境におけるリアルタイム動画処理GPU 上での生の推論速度を優先するアプリケーション。
  • 美団エコシステム統合: 美団のテクノロジースタックおよびデプロイメントインフラストラクチャ内で既に稼働しているチーム。

Ultralytics YOLO26)を選択すべきタイミング

ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:

  • NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
  • CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
  • 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。

Ultralytics :YOLO26が優れた選択肢である理由

EfficientDetとYOLOv6.YOLOv6視覚研究における画期的な成果でしたが、現代の生産環境での導入には複雑な依存関係、断片化されたAPI、高いメモリ要件といった課題が伴います。Ultralytics は、これらのワークフロー上のボトルネックをネイティブに解決します。

開発者が究極のパフォーマンスと使いやすさを求める場合、Ultralytics (2026年1月リリース)は世代を超えた飛躍を提供します。新規導入に推奨されるモデルであり、従来のアーキテクチャをあらゆる面で凌駕しています。

YOLO26 画期的な革新

  • エンドツーエンドNMS設計:YOLO26はネイティブにエンドツーエンドであり、ノンマキシマム抑制(NMS)後処理を完全に不要とします。これにより遅延変動が大幅に低減され、多様なエッジハードウェアへのモデル展開が簡素化されます。
  • MuSGDオプティマイザー:大規模言語モデル(LLM)のトレーニング手法(Moonshot AIのKimi K2など)に着想を得たYOLO26は、SGD ハイブリッド手法を採用しています。これにより大規模言語モデルの安定性をコンピュータビジョンに導入し、収束速度の向上と高効率なトレーニングプロセスを実現します。
  • 最大43%高速CPU : エッジコンピューティングと低消費電力デバイス向けに最適化されたYOLO26は、従来の産業用モデルが苦戦する領域で比類のないCPU を実現します。
  • DFLの削除:ディストリビューション・フォーカル・ロスを削除し、エクスポートグラフを簡素化しました。これにより、 OpenVINO やCoreMLなどのデプロイメントランタイムとのシームレスな互換性を実現します。
  • ProgLoss + STAL:高度な損失関数は小規模物体認識において顕著な改善をもたらし、YOLO26をドローンマッピング、IoTセンサー、ロボティクスに不可欠な存在としている。

比類なき汎用性

EfficientDetがバウンディングボックス検出に限定されているのとは異なり、YOLO26はネイティブにマルチタスク学習を行うモデルである。同一のPython インスタンスセグメンテーション姿勢推定、画像分類、オリエンテッドバウンディングボックス(OBB)検出が標準でサポートされ、セマンティックセグメンテーション損失や残差対数尤度推定(RLE)といったタスク固有の改良がアーキテクチャに直接組み込まれている。

YOLO26についてさらに詳しく

シームレスなコード統合

高度なニューラルネットワークのトレーニングに、もはや何百行もの定型コードは必要ありません。Ultralytics 、研究者は標準的なデータセット(例: COCO などの標準データセット上でモデルを読み込み、トレーニングし、検証することを完璧に実現します:

from ultralytics import YOLO

# Initialize the natively end-to-end YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model efficiently with automatic hardware detection
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Validate the model's performance
metrics = model.val()
print(f"Achieved mAP50-95: {metrics.box.map:.3f}")

# Export directly to ONNX or TensorRT without NMS overhead
model.export(format="onnx")

検討すべきその他のモデル

プロジェクトで古いハードウェアプロファイルのサポートが必要な場合や、レガシーコードベースの保守を行っている場合でも、Ultralytics 広範なUltralytics が対応します。

  • Ultralytics YOLO11:YOLO26の直前のバージョンであり、成熟した、文書化が整ったパイプラインを必要とする企業環境で高い信頼を得ている。
  • Ultralytics YOLOv8:開発者体験を再定義した旗手であり、TensorBoardやWeights& Biasesといったツールと深く統合された汎用的なコンピュータビジョンタスクにおける優れた選択肢であり続けている。 Weights & Biasesなどのツールと深く統合された汎用的なコンピュータビジョンタスクにおいて、今なお優れた選択肢であり続けています。

コメント