YOLO11 YOLOv8:リアルタイムビジョンモデルの包括的な技術比較
コンピュータビジョン分野では、物体検出アーキテクチャの継続的な進化に伴い目覚ましい進歩が見られている。実環境での展開に向けたモデル評価において、開発者はしばしば Ultralytics YOLO11 とその非常に成功した前身である Ultralytics YOLOv8。両モデルは速度、精度、開発者体験において業界標準を確立していますが、対応するプロジェクトライフサイクルと性能要件が若干異なります。
本ガイドでは、各ソリューションのアーキテクチャ、トレーニング手法、および最適なユースケースについて詳細な分析を提供し、人工知能プロジェクトに最適なソリューションの選択を支援します。
アーキテクチャの革新
YOLOv8 YOLO11 YOLOv8 移行では、計算オーバーヘッドを最小化しつつ特徴抽出効率を最大化することを目的とした、いくつかの重要なアーキテクチャ上の改良がYOLO11 。
YOLO11アーキテクチャ
YOLO11 パラメータ使用の最適化において大きな飛躍をYOLO11 。従来のC2fモジュールを高度なC3k2ブロックに置き換え、パラメータ数を膨張させることなく空間特徴処理を強化している。YOLO11 バックボーン内にC2PSA(Cross-Stage Partial Spatial Attention)モジュールをYOLO11 。この注意機構によりモデルは重要な関心領域に焦点を当てることが可能となり、微小物体検出能力と複雑な遮蔽処理能力が劇的に向上した。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:Ultralytics リポジトリ
- ドキュメンテーション:YOLO11 ドキュメント
YOLOv8アーキテクチャ
1年前に発表されたYOLOv8 、アンカーボックスの手動調整を不要にし損失関数の定式化を簡素化した、アンカーフリー検出ヘッドへの移行をYOLOv8 。そのアーキテクチャはC2fブロックに大きく依存しており、この設計はネットワークの深さと勾配の流れのバランスを成功裏に取っており、幅広いコンピュータビジョンアプリケーションにおいて非常に頑健である。
- 著者: Glenn Jocher、Ayush Chaurasia、Jing Qiu
- 組織:Ultralytics
- 日付: 2023-01-10
- GitHub:Ultralytics リポジトリ
- ドキュメント:YOLOv8 Docs
設計思想
YOLOv8 Ultralytics におけるアンカーフリー検出の基盤をYOLOv8 一方、YOLO11 空間的注意機構によってこの手法をYOLO11 、より少ない計算資源で高い精度を達成した。
性能とベンチマーク
ラズベリーパイなどのエッジデバイスや、NVIDIA GeForce GPUを搭載した高性能サーバーにモデルを展開する際 NVIDIA TensorRTを実行する高性能サーバーなどのエッジデバイスにモデルをデプロイする際には、速度と精度のトレードオフを理解することが極めて重要です。以下の表は、YOLO11 全YOLOv8 YOLO11 上回る性能を発揮することを示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv8n | 640 | 37.3 | 80.4 | 1.47 | 3.2 | 8.7 |
| YOLOv8s | 640 | 44.9 | 128.4 | 2.66 | 11.2 | 28.6 |
| YOLOv8m | 640 | 50.2 | 234.7 | 5.86 | 25.9 | 78.9 |
| YOLOv8l | 640 | 52.9 | 375.2 | 9.06 | 43.7 | 165.2 |
| YOLOv8x | 640 | 53.9 | 479.1 | 14.37 | 68.2 | 257.8 |
メトリクスの分析
YOLO11 、パラメータ数と浮動小数点演算量(FLOPs)を同時に削減しながら、著しく高い平均精度(mAP)YOLO11 。 例えば、YOLO11mモデルはYOLOv8m 22%少ないパラメータでYOLOv8m COCO mAP 1.3%高いmAP を達成します。さらに、ONNX エクスポートした際のCPU 速度は、YOLO11 大幅に高速YOLO11 示しており、専用のGPU 必要としないデプロイメントに最適な選択肢となります。
Ultralyticsエコシステムの利点
YOLO11 YOLOv8どちらを選択しても、両モデルはUltralytics 恩恵を受け、機械学習のライフサイクルを劇的に簡素化します。
使いやすさとシンプルなAPI
The ultralytics Python 、エンジニアや研究者がわずか数行のコードでモデルのトレーニング、検証、エクスポートを行える合理化されたAPIを提供します。これにより、深層学習環境の構築に伴う典型的な複雑さが抽象化されます。 PyTorch.
トレーニング効率とメモリ要件
重いビジョン・トランスフォーマー(例: RT-DETR)とは異なり、Ultralytics YOLO トレーニング時のメモリ使用量が少ないことで知られています。このメモリ効率性により、開発者はGoogle などのクラウド環境やコンシューマー向けGPU上で最先端のネットワークをトレーニングでき、メモリ不足エラーに直面することなく作業を進められます。
多様な視覚タスクへの適応性
YOLO11とYOLOv8は真のマルチタスク学習モデルです。標準的なバウンディングボックスobject detectionを超えて、それらはネイティブにinstance segmentation、image classification、人間のpose estimation、そして航空画像用のOriented Bounding Boxes (OBB)をサポートしています。
ユースケースと推奨事項
YOLO11とYOLOv8の選択は、特定のプロジェクト要件、デプロイ制約、およびエコシステムへの適合性によって決まります。
YOLO11を選択すべき時
YOLO11 以下に最適YOLO11 :
- 本番エッジデプロイ: Raspberry PiやNVIDIA Jetsonのようなデバイス上での商用アプリケーションにおいて、信頼性と継続的なメンテナンスが最重要となります。
- マルチタスクビジョンアプリケーション: 単一の統合フレームワーク内で、detect、segment、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイ: 合理化されたUltralytics Python APIを使用して、データ収集から本番環境へ迅速に移行する必要があるチーム向け。
YOLOv8を選択すべき時
YOLOv8 以下に推奨YOLOv8 :
- 多様なマルチタスク展開: Ultralyticsエコシステム内で、detect、セグメンテーション、分類、姿勢推定の実績あるモデルを必要とするプロジェクト向け。
- 確立された本番システム: 安定した十分にテストされたデプロイメントパイプラインを備え、YOLOv8アーキテクチャ上に既に構築されている既存の本番環境。
- 広範なコミュニティとエコシステムサポート: YOLOv8の豊富なチュートリアル、サードパーティ統合、および活発なコミュニティリソースから恩恵を受けるアプリケーション。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
コード例: 入門
Ultralyticsモデルのデプロイとトレーニングは非常に直感的です。以下の例は、事前学習済みのYOLO11モデルをロードし、カスタムデータセットでファインチューニングし、Apple CoreMLを使用してエッジデプロイメント用にエクスポートする方法を示しています。
from ultralytics import YOLO
# Initialize the YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model efficiently with optimized memory requirements
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Evaluate the validation performance
metrics = model.val()
# Run real-time inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
# Export to CoreML for fast mobile deployment
export_path = model.export(format="coreml")
シームレスなアップグレード
Ultralytics APIは標準化されているため、YOLOv8からYOLO11へのレガシーパイプラインのアップグレードは、通常、重み文字列の変更のみで済みます。 "yolov8n.pt" 宛先 "yolo11n.pt".
展望:YOLO26によるエッジAIの頂点
YOLO11 成熟した高性能なアーYOLO11 、AI技術の革新は急速に進んでいます。新規プロジェクトを開始する開発者で、絶対的な最先端性能を必要とする方には、Ultralytics (2026年1月リリース)が究極の選択肢となります。
YOLO26は、いくつかの画期的な機能によりコンピュータビジョンの限界を押し広げます:
- エンドツーエンドNMSフリー設計: YOLOv10で探求された概念に基づいて構築されたYOLO26は、Non-Maximum Suppression (NMS)の後処理をネイティブに排除し、すべてのデプロイメントハードウェアで、より低く、より予測可能なレイテンシを実現します。
- 最大43%高速なCPU推論: Distribution Focal Loss (DFL) ブランチを完全に削除することで、YOLO26 は強力なGPUを持たない エッジコンピューティングデバイス 向けに特別に最適化されています。
- MuSGDオプティマイザ: 大規模言語モデル (LLM) の学習技術に触発され、YOLO26はハイブリッドMuSGDオプティマイザを利用しており、驚くほど安定した迅速な学習収束を保証します。
- ProgLoss + STAL: これらの高度な損失関数は、自律ロボティクスやドローンベースの分析に不可欠な、微小で大きく遮蔽されたオブジェクトの認識において顕著な改善をもたらします。
YOLOv8信頼性、YOLO11最適化されたアーキテクチャ、あるいはYOLO26の次世代機能のいずれに依存する場合でも、Ultralytics 、ビジョンAIアプリケーションをコンセプトから本番環境までシームレスに移行させるために必要なツールを確実に提供します。モデルを企業のワークフローや分析ダッシュボードと接続するための豊富な統合機能を活用してください。