YOLO11 EfficientDet: 包括的な技術比較
コンピュータビジョンプロジェクトに最適なニューラルネットワークを選択するには、利用可能なアーキテクチャに対する深い理解が必要です。本ガイドでは、以下の技術的比較を詳細に提供します。 Ultralytics YOLO11Google詳細な技術比較を行います。各モデルのアーキテクチャ上の差異、性能指標、トレーニング効率、最適な展開シナリオを検証し、機械学習ワークロードに適した選択を行うための判断材料を提供します。
モデル背景と仕様
両モデルはディープラーニングの状況に大きな影響を与えましたが、それらは異なる設計哲学とAI開発の時代に由来しています。
YOLO11
著者:Glenn Jocher、Jing Qiu
所属:Ultralytics
日付:2024-09-27
GitHub:https://github.com/ultralytics/ultralytics
ドキュメント:https://docs.ultralytics.com/models/yolo11/
EfficientDetの詳細
著者:Mingxing Tan、Ruoming Pang、Quoc V. Le
所属:Google
日付:2019-11-20
Arxiv:https://arxiv.org/abs/1911.09070
GitHub:https://github.com/google/automl/tree/master/efficientdet
ドキュメント:https://github.com/google/automl/tree/master/efficientdet#readme
エコシステムの利点
コンピュータビジョンモデルを扱う際、モデル自体と同様に周辺エコシステムも重要です。Ultralytics 、豊富なドキュメント、活発なコミュニティサポート、ONNXなどのフォーマットへのシームレスなエクスポート機能を提供し、比類のない開発者体験を実現します。 ONNX や TensorRTなどへのシームレスなエクスポート機能を提供します。
アーキテクチャの革新
EfficientDet: BiFPNと複合スケーリング
2019年末に導入されたEfficientDetは、計算コストを最小化しながら精度を最大化することを目指した。主に二つのメカニズムによってこれを達成する。第一に、深さ、幅、解像度を統合的にスケーリングするEfficientNetバックボーンを採用している。第二に、双方向特徴ピラミッドネットワーク(BiFPN)を導入し、容易かつ高速なマルチスケール特徴融合を可能にした。
当時としては非常に効率的であったものの、EfficientDetTensorFlow ensorFlow AutoMLライブラリへの依存度が高いため、柔軟性に欠ける面がある。研究者らは、モデルプルーニングやカスタム変更が、現代的なモジュールPyTorchフレームワークと比較して困難であると感じることが多い。
YOLO11: 強化された特徴抽出と汎用性
YOLO11 は物体検出アーキテクチャにおいて画期的な飛躍をYOLO11 。先行モデルの成功を基盤としつつ、改良されたC3k2ブロックと高度化された空間ピラミッドプーリングモジュールを導入。これらの強化により優れた特徴抽出を実現し、YOLO11 複雑な視覚パターンを卓越した明瞭さでYOLO11 となった。
YOLO11の大きな利点は、その汎用性です。EfficientDetが厳密には物体detectモデルであるのに対し、YOLO11は、インスタンスセグメンテーション、画像分類、姿勢推定、およびOriented Bounding Box (OBB)をネイティブにサポートします。さらに、YOLO11はトレーニングと推論の両方で非常に低いメモリ要件を誇り、リソース制約のあるエッジAI環境にデプロイする際、古いモデルや大規模なビジョントランスフォーマーよりもはるかに優れています。
性能とベンチマーク
平均精度(mAP)で測定される精度と推論速度のバランスは、実環境での導入における決定的な要因である。下表は、標準的なCOCO における両モデルファミリーの生性能を示している。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| EfficientDet-d0 | 640 | 34.6 | 10.2 | 3.92 | 3.9 | 2.54 |
| EfficientDet-d1 | 640 | 40.5 | 13.5 | 7.31 | 6.6 | 6.1 |
| EfficientDet-d2 | 640 | 43.0 | 17.7 | 10.92 | 8.1 | 11.0 |
| EfficientDet-d3 | 640 | 47.5 | 28.0 | 19.59 | 12.0 | 24.9 |
| EfficientDet-d4 | 640 | 49.7 | 42.8 | 33.55 | 20.7 | 55.2 |
| EfficientDet-d5 | 640 | 51.5 | 72.5 | 67.86 | 33.7 | 130.0 |
| EfficientDet-d6 | 640 | 52.6 | 92.8 | 89.29 | 51.9 | 226.0 |
| EfficientDet-d7 | 640 | 53.7 | 122.0 | 128.07 | 51.9 | 325.0 |
示されているように、YOLO11は非常に優れたパフォーマンスバランスを達成しています。YOLO11xは最高の全体的な精度(54.7 mAP)を達成する一方、より小型のYOLO11バリアントは、GPU推論速度において圧倒的な性能を発揮します(TensorRTを使用したT4で1.5msという低さ)。
トレーニング効率とエコシステム
Ultralytics 決定的な特徴の一つは、その使いやすさです。EfficientDetモデルのトレーニングでは、複雑なTensorFlow 操作や、入り組んだ依存関係チェーンの管理が必要となることがよくあります。これとは対照的に、YOLO11 クリーンで完全に現代的な PyTorch 基盤の上に構築されています。
この整備されたエコシステムにより、開発者はパッケージをインストールし、事前学習済みモデルを読み込み、わずか数行のコードでカスタムデータセットを用いたトレーニングを開始できます。
pythonコード例
Ultralytics 簡便さを示す、完全に実行可能なサンプルです。このスクリプトは事前学習済みYOLO11 をダウンロードし、トレーニングを行い、簡単な予測を実行します。
from ultralytics import YOLO
# Initialize a pretrained YOLO11 nano model
model = YOLO("yolo11n.pt")
# Train the model efficiently using the integrated PyTorch engine
# Training efficiency is high, requiring less VRAM than legacy models
results = model.train(data="coco8.yaml", epochs=10, imgsz=640, device="cpu")
# Run real-time inference on a sample image
prediction = model.predict("https://ultralytics.com/images/bus.jpg")
# Display the output bounding boxes
prediction[0].show()
未来を見据えて:YOLO26の優位性
YOLO11 、新規プロジェクトを開始するチームは、2026年1月にリリースUltralytics 強く検討すべきです。YOLO26は、導入の簡便性とエッジ性能においてパラダイムシフトをもたらします。
YOLO26の主な革新点には以下が含まれます:
- エンドツーエンドのNMSフリー設計: 後処理中の非最大抑制(NMS)を排除することで、YOLO26は一貫した超低レイテンシを保証し、高速ロボティクスや自動運転にとって不可欠です。
- CPU推論が最大43%高速化: 専用GPUを持たないデプロイメント向けに、YOLO26は標準プロセッサでのスループットを最大化するように特別に最適化されています。
- MuSGDオプティマイザ: Moonshot AIのKimi K2に着想を得たこのハイブリッドオプティマイザは、LLMトレーニングの安定性をコンピュータビジョンにもたらし、より速い収束を可能にします。
- ProgLoss + STAL: これらの改良された損失関数は、小さなオブジェクトの認識を劇的に強化し、衛星画像分析やドローン映像においてしばしば課題となる点を解消します。
- DFLの削除: Distribution Focal Lossの削除により、モデルのエッジデバイスへのエクスポートプロセスが合理化されます。
検討すべき代替モデル
プロジェクトに非常に特殊な要件がある場合、 RT-DETR モデルや、広く採用されている YOLOv8をベンチマークすることをお勧めします。後者は多くのレガシー企業環境で依然として定番となっています。
ユースケースと推奨事項
YOLO11とEfficientDetの選択は、特定のプロジェクト要件、デプロイ制約、およびエコシステムへの適合性によって決まります。
YOLO11を選択すべき時
YOLO11 以下に最適YOLO11 :
- 本番エッジデプロイ: Raspberry PiやNVIDIA Jetsonのようなデバイス上での商用アプリケーションにおいて、信頼性と継続的なメンテナンスが最重要となります。
- マルチタスクビジョンアプリケーション: 単一の統合フレームワーク内で、detect、segment、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイ: 合理化されたUltralytics Python APIを使用して、データ収集から本番環境へ迅速に移行する必要があるチーム向け。
EfficientDetを選択するタイミング
EfficientDetは以下の用途に推奨されます。
- Google CloudおよびTPUパイプライン: EfficientDetがネイティブ最適化されているGoogle Cloud Vision APIまたはTPUインフラストラクチャと深く統合されたシステム。
- 複合スケーリング研究:バランスの取れたネットワークの深さ、幅、解像度のスケーリング効果を研究することに焦点を当てた学術的なベンチマーク。
- TFLiteを介したモバイルデプロイメント: Androidまたは組み込みLinuxデバイス向けにTensorFlow Liteのエクスポートを特に必要とするプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
結論
EfficientDetは、オブジェクト検出における複合スケーリングの実現可能性を証明した先駆的なアーキテクチャでした。しかし、AI研究の急速な進展により、より高性能で統合が容易、かつ高速に実行できるモデルが登場しています。
堅牢なマルチタスク機能、驚異的なGPU 速度、そして業界で最も開発者フレンドリーなAPIを備えた YOLO11 は現代のビジョンパイプラインにおいて圧倒的な優位性を示します。技術の最先端を目指す方、特にエッジファースト展開を志向する方にとって、YOLO26へのアップグレードはNMS高速処理と比類なき精度を究極的に融合した選択肢となります。