YOLO11 EfficientDet: 包括的な技術比較
コンピュータビジョンプロジェクトに最適なニューラルネットワークを選択するには、利用可能なアーキテクチャに対する深い理解が必要です。本ガイドでは、以下の技術的比較を詳細に提供します。 Ultralytics YOLO11Google詳細な技術比較を行います。各モデルのアーキテクチャ上の差異、性能指標、トレーニング効率、最適な展開シナリオを検証し、機械学習ワークロードに適した選択を行うための判断材料を提供します。
モデル背景と仕様
両モデルは、異なる設計思想とAI発展の時代から生まれたものの、深層学習の分野に大きな影響を与えている。
YOLO11
著者: Glenn Jocher と Jing Qiu
組織: Ultralytics
日付: 2024-09-27
GitHub:ultralytics
ドキュメント:yolo11
EfficientDetの詳細
著者: Mingxing Tan, Ruoming Pang, Quoc V. Le
所属機関: Google
日付: 2019-11-20
Arxiv:https://arxiv.org/abs/1911.09070
GitHub:google
ドキュメント:google
エコシステムの利点
コンピュータビジョンモデルを扱う際、モデル自体と同様に周辺エコシステムも重要です。Ultralytics 、豊富なドキュメント、活発なコミュニティサポート、ONNXなどのフォーマットへのシームレスなエクスポート機能を提供し、比類のない開発者体験を実現します。 ONNX や TensorRTなどへのシームレスなエクスポート機能を提供します。
アーキテクチャの革新
効率的検出: BiFPNと複合スケーリング
2019年末に導入されたEfficientDetは、計算コストを最小化しながら精度を最大化することを目指した。主に二つのメカニズムによってこれを達成する。第一に、深さ、幅、解像度を統合的にスケーリングするEfficientNetバックボーンを採用している。第二に、双方向特徴ピラミッドネットワーク(BiFPN)を導入し、容易かつ高速なマルチスケール特徴融合を可能にした。
当時としては非常に効率的であったものの、EfficientDetTensorFlow ensorFlow AutoMLライブラリへの依存度が高いため、柔軟性に欠ける面がある。研究者らは、モデルプルーニングやカスタム変更が、現代的なモジュールPyTorchフレームワークと比較して困難であると感じることが多い。
YOLO11: 強化された特徴抽出と汎用性
YOLO11 は物体検出アーキテクチャにおいて画期的な飛躍をYOLO11 。先行モデルの成功を基盤としつつ、改良されたC3k2ブロックと高度化された空間ピラミッドプーリングモジュールを導入。これらの強化により優れた特徴抽出を実現し、YOLO11 複雑な視覚パターンを卓越した明瞭さでYOLO11 となった。
YOLO11 大きな利点は汎用性 YOLO11 。EfficientDetが純粋な物体検出モデルであるのに対し、YOLO11 インスタンスセグメンテーション、画像分類、姿勢推定、方向付き境界ボックス(OBB)を YOLO11 サポートします。さらに、YOLO11 学習時と推論時の両方で驚異的に低いメモリ要件 YOLO11 、リソース制約のあるエッジAI環境への展開において、旧式モデルや大容量のビジョン・トランスフォーマーを大きく凌駕します。
性能とベンチマーク
平均精度(mAP)で測定される精度と推論速度のバランスは、実環境での導入における決定的な要因である。下表は、標準的なCOCO における両モデルファミリーの生性能を示している。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| EfficientDet-d0 | 640 | 34.6 | 10.2 | 3.92 | 3.9 | 2.54 |
| EfficientDet-d1 | 640 | 40.5 | 13.5 | 7.31 | 6.6 | 6.1 |
| EfficientDet-d2 | 640 | 43.0 | 17.7 | 10.92 | 8.1 | 11.0 |
| EfficientDet-d3 | 640 | 47.5 | 28.0 | 19.59 | 12.0 | 24.9 |
| EfficientDet-d4 | 640 | 49.7 | 42.8 | 33.55 | 20.7 | 55.2 |
| EfficientDet-d5 | 640 | 51.5 | 72.5 | 67.86 | 33.7 | 130.0 |
| EfficientDet-d6 | 640 | 52.6 | 92.8 | 89.29 | 51.9 | 226.0 |
| EfficientDet-d7 | 640 | 53.7 | 122.0 | 128.07 | 51.9 | 325.0 |
図に示す通り、YOLO11 極めて良好な性能バランス YOLO11 。YOLO11xは最高の総合精度(54.7mAP)を達成する一方、よりYOLO11 GPU 絶対的な優位性を示す(TensorRTでは1.5msという低速を実現)。
トレーニング効率とエコシステム
Ultralytics 決定的な特徴の一つは、その使いやすさです。EfficientDetモデルのトレーニングでは、複雑なTensorFlow 操作や、入り組んだ依存関係チェーンの管理が必要となることがよくあります。これとは対照的に、YOLO11 クリーンで完全に現代的な PyTorch 基盤の上に構築されています。
この整備されたエコシステムにより、開発者はパッケージをインストールし、事前学習済みモデルを読み込み、わずか数行のコードでカスタムデータセットを用いたトレーニングを開始できます。
pythonコード例
Ultralytics 簡便さを示す、完全に実行可能なサンプルです。このスクリプトは事前学習済みYOLO11 をダウンロードし、トレーニングを行い、簡単な予測を実行します。
from ultralytics import YOLO
# Initialize a pretrained YOLO11 nano model
model = YOLO("yolo11n.pt")
# Train the model efficiently using the integrated PyTorch engine
# Training efficiency is high, requiring less VRAM than legacy models
results = model.train(data="coco8.yaml", epochs=10, imgsz=640, device="cpu")
# Run real-time inference on a sample image
prediction = model.predict("https://ultralytics.com/images/bus.jpg")
# Display the output bounding boxes
prediction[0].show()
未来を見据えて:YOLO26の優位性
YOLO11 、新規プロジェクトを開始するチームは、2026年1月にリリースUltralytics 強く検討すべきです。YOLO26は、導入の簡便性とエッジ性能においてパラダイムシフトをもたらします。
YOLO26の主な革新点には以下が含まれます:
- エンドツーエンドNMS:後処理段階での非最大抑制(NMS)を排除することで、YOLO26は一貫した超低遅延を実現し、高速ロボティクスや自動運転に不可欠な性能を確保します。
- 最大43%高速CPU :専用GPUがない環境向けに、YOLO26は標準プロセッサでのスループット最大化を目的に最適化されています。
- MuSGDオプティマイザー:Moonshot AIのKimi K2に着想を得たこのハイブリッドオプティマイザーは、コンピュータビジョンにLLMトレーニングの安定性をもたらし、収束を加速させます。
- ProgLoss + STAL:これらの改良された損失関数は、衛星画像解析やドローン映像において課題となることが多い微小物体の認識能力を劇的に向上させます。
- DFL除去:ディストリビューション・フォーカル・ロス(DFL)の除去により、エッジデバイスへのモデルエクスポートプロセスが効率化されます。
検討すべき代替モデル
プロジェクトに非常に特殊な要件がある場合、 RT-DETR モデルや、広く採用されている YOLOv8をベンチマークすることをお勧めします。後者は多くのレガシー企業環境で依然として定番となっています。
ユースケースと推奨事項
YOLO11 具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステム上の好みに依存します。
YOLO11を選択すべき時
YOLO11 以下に最適YOLO11 :
- 生産環境への導入: ラズベリーパイやNVIDIA などのデバイス上で動作する商用アプリケーションにおいて、信頼性と積極的なメンテナンスが最優先事項となる場合。
- マルチタスク視覚アプリケーション:単一の統合フレームワーク内で検出、セグメンテーション、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイメント:データ収集から生産までを迅速に進める必要があるチーム向けに、Ultralytics Python 効率化されたインターフェースを提供します。
EfficientDetを選択するタイミング
EfficientDetは以下に推奨されます:
- Google およびTPU : Google Vision API またはTPU と深く統合されたシステムで、EfficientDet がネイティブ最適化を実現します。
- 複合スケーリング研究:バランスの取れたネットワークの深さ、幅、および解像度スケーリングの効果を研究する学術的ベンチマーク。
- TFLiteによるモバイル展開: Android 組み込みLinuxデバイス向けにTensorFlow エクスポートを特に必要とするプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:
- NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
- CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
- 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。
結論
EfficientDetは、物体検出における複合スケーリングの実用性を証明した先駆的なアーキテクチャであった。しかし、AI研究の急速な進展により、より高性能で、統合が容易で、実行速度が速いモデルが登場している。
堅牢なマルチタスク機能、驚異的なGPU 速度、そして業界で最も開発者フレンドリーなAPIを備えた YOLO11 は現代のビジョンパイプラインにおいて圧倒的な優位性を示します。技術の最先端を目指す方、特にエッジファースト展開を志向する方にとって、YOLO26へのアップグレードはNMS高速処理と比類なき精度を究極的に融合した選択肢となります。