YOLO11 YOLO:次世代物体検出器の比較
コンピュータービジョンプロジェクトにおいて、最適なアーキテクチャを選択することは重要なステップです。この技術ガイドでは、2つの強力な物体検出モデル、Ultralytics YOLO11とDAMO-YOLOの包括的な比較を提供します。これらのアーキテクチャ革新、トレーニングパラダイム、および実世界での適用性について深く掘り下げ、デプロイメントニーズに最適なツールを選択できるよう支援します。
モデルの概要
Ultralytics YOLO11
Ultralyticsのチームによって開発されたYOLO11は、YOLOファミリーにおける高度に洗練されたイテレーションであり、精度と効率の両方を大幅に最適化しています。これは、データセット管理からエッジデプロイメントまでを網羅する、統一された実稼働対応のエコシステムを求める研究者やエンジニア向けに設計されています。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:https://github.com/ultralytics/ultralytics
- ドキュメント:https://docs.ultralytics.com/models/yolo11/
YOLO11 はその汎用性でYOLO11 。多くの従来モデルがバウンディングボックスのみに焦点を当てる中、YOLO11 オブジェクト検出、インスタンスセグメンテーション、画像分類、姿勢推定を YOLO11 サポートする。このマルチモーダル機能により、開発者はビジョンAIパイプラインを単一の、よく管理されたフレームワークに統合できる。
DAMO-YOLO
DAMO-YOLOは、Alibaba Groupの研究者によって開発されました。ニューラルアーキテクチャ探索(NAS)を活用して、GPUやその他のアクセラレータでのリアルタイム推論向けに調整された非常に効率的なバックボーンを発見します。
- 著者: Xianzhe Xu、Yiqi Jiang、Weihua Chen、Yilun Huang、Yuan Zhang、Xiuyu Sun
- 組織:Alibaba Group
- 日付: 2022-11-23
- Arxiv:https://arxiv.org/abs/2211.15444v2
- GitHub:https://github.com/tinyvision/DAMO-YOLO
- ドキュメント:https://github.com/tinyvision/DAMO-YOLO/blob/master/README.md
YOLO の中核となる哲学は、反復パラメータ化と自動探索にYOLO 。MAE-NAS(多目的進化型ニューラルアーキテクチャ探索)を活用することで、著者らは専用ハードウェア上での推論速度を大幅に向上させるカスタムバックボーンを設計した。さらに、遅延を最小化するため、高度に最適化された「効率的なRepGFPN」と呼ばれるネック部と簡素化されたZeroHead構造を組み込んでいる。
検討すべきその他のモデル
YOLO11 YOLO比較する際は、よりUltralytics も検討してみてください。ネイティブでエンドツーエンドNMS推論を導入し、CPU 最大43%高速化します。YOLOXや YOLOv8との比較も検討してみてください。
性能とアーキテクチャの比較
エッジAIアプリケーションを展開する際には、性能のトレードオフを理解することが極めて重要です。以下の表は、平均精度(mAP)、レイテンシ、計算量といった主要な指標をまとめたものです。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| DAMO-YOLOt | 640 | 42.0 | - | 2.32 | 8.5 | 18.1 |
| DAMO-YOLOs | 640 | 46.0 | - | 3.45 | 16.3 | 37.8 |
| DAMO-YOLOm | 640 | 49.2 | - | 5.09 | 28.2 | 61.8 |
| DAMO-YOLOl | 640 | 50.8 | - | 7.18 | 42.1 | 97.3 |
アーキテクチャの詳細
YOLO11は、パラメーター数と表現能力のバランスを完璧に取る、高効率でカスタム設計されたバックボーンに依存しています。トレーニングと推論の両方で最小限のCUDA memory使用量でネイティブに優れており、幅広いハードウェアで美しく動作するように最適化されています。これにより、標準的な消費者向けハードウェアやリソース制約のあるIoTデバイスにとって優れた選択肢となります。
対照的に、DAMO-YOLOのMAE-NASによって生成されたバックボーンは、高スループットのGPU環境向けに微調整されています。そのEfficient RepGFPN (Generalized Feature Pyramid Network) は、複数のスケールを積極的に統合します。しかし、rep-parameterizationは推論を高速化する一方で、ハードウェアスタックがこれらの操作を明確に十分にサポートしていない場合、デプロイプロセスを複雑にする可能性があります。
ユーザビリティとトレーニング効率
開発時間を考慮に入れると、モデルの使いやすさは、その生のベンチマーク値と同様に重要となる。
YOLO11 開発者アクセシビリティの原則を強く基盤として構築されています。包括的な ultralytics パッケージは、データセットの解析、拡張、ハイパーパラメータ調整といった面倒な作業を抽象化します。モデルを本番環境向けフォーマット(例:)へエクスポートします。 ONNX, TensorRT、および OpenVINO たった1つのコマンドだけで済みます。
from ultralytics import YOLO
# Initialize YOLO11 object detection model
model = YOLO("yolo11s.pt")
# Train the model with mixed precision on COCO8
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Export the trained model to TensorRT for edge deployment
model.export(format="engine", device=0)
DAMO-YOLOは、学術的かつ研究色の強い背景から生まれたため、より急峻な学習曲線を示します。その最高の精度を達成するには、しばしば複雑な知識蒸留パイプラインが関与します。これは、まず大規模な「教師」ネットワークを訓練し、その知識をより小さな「学生」ネットワークに渡す必要があることを意味します。これにより、Ultralyticsモデルの効率的な訓練ループと比較して、必要なGPU計算オーバーヘッドと全体の訓練期間が大幅に膨らみます。
ユースケースと推奨事項
YOLO11とDAMO-YOLOの選択は、特定のプロジェクト要件、デプロイ制約、およびエコシステムへの適合性によって決まります。
YOLO11を選択すべき時
YOLO11 以下に最適YOLO11 :
- 本番エッジデプロイ: Raspberry PiやNVIDIA Jetsonのようなデバイス上での商用アプリケーションにおいて、信頼性と継続的なメンテナンスが最重要となります。
- マルチタスクビジョンアプリケーション: 単一の統合フレームワーク内で、detect、segment、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイ: 合理化されたUltralytics Python APIを使用して、データ収集から本番環境へ迅速に移行する必要があるチーム向け。
DAMO-YOLOを選択するタイミング
DAMO-YOLOは以下のような用途に推奨されます。
- 高スループットビデオ分析: バッチ1スループットが主要な指標となる、固定のNVIDIA GPUインフラストラクチャ上での高FPSビデオストリーム処理。
- 産業用製造ライン: 組立ラインでのリアルタイム品質検査など、専用ハードウェアにおける厳格なGPUレイテンシー制約があるシナリオです。
- ニューラルアーキテクチャ探索研究: 自動化されたアーキテクチャ探索(MAE-NAS)と効率的な再パラメータ化されたバックボーンがdetect性能に与える影響を研究しています。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
実世界でのアプリケーションとユースケース
自律システムとドローン
航空画像およびUAV展開において、YOLO11は非常に優れたパフォーマンスバランスを提供します。ドローン分析における小物体検出は大きな課題ですが、YOLO11はさまざまなスケールにネイティブで対応します。さらに、低いメモリ要件により、YOLO11 NanoおよびSmallバリアントは、ドローンに搭載された軽量なエッジCPUまたはNPUで直接実行できます。
産業オートメーションと品質管理
スマートファクトリーでは、レイテンシーが最重要課題である。YOLORepGFPNネックにより高性能サーバー向けGPU上で堅牢な推論速度を実現するが、その硬直的な統合は過剰な場合がある。YOLO11 シンプルな追跡APIを備え、欠陥が角度のある境界認識を必要とする場合には純粋な検出から方向付き境界ボックス(OBB)タスクへシームレスに移行できるため、自動品質管理において優れた代替手段YOLO11
スマートヘルスケアと医療画像診断
医療画像データセットは比較的小規模な場合が多く、過学習を回避することは困難です。Ultralytics 整備されたエコシステムが提供する標準的な転移学習パイプラインと組み合わせた能動的拡張技術により、臨床医や開発者は正確な腫瘍検出モデルを確実に展開できます。広範なコミュニティサポートにより、医療のような複雑な分野における課題も迅速に解決されます。
YOLO26で未来を切り拓く
新規アプリケーションをゼロから構築する場合は、YOLO26の検討をお勧めします。2026年初頭にリリースされた本モデルはMuSGDオプティマイザとProgLoss関数を採用し、微小物体に対する卓越した精度を実現。さらに NMSのエンドツーエンドパイプラインを標準装備しています!
結局のところ、YOLO ニューラルアーキテクチャ検索の強力な実証例YOLO 一方で、 YOLO11 および拡張されたUltralytics 、迅速な展開、開発者の容易さ、そしてトップクラスのマルチモーダル性能を優先する実世界のコンピュータビジョンタスクにおける決定的な推奨選択肢であり続けています。