YOLO11 YOLOv8:リアルタイムビジョンモデルの包括的な技術比較
コンピュータビジョン分野では、物体検出アーキテクチャの継続的な進化に伴い目覚ましい進歩が見られている。実環境での展開に向けたモデル評価において、開発者はしばしば Ultralytics YOLO11 とその非常に成功した前身である Ultralytics YOLOv8。両モデルは速度、精度、開発者体験において業界標準を確立していますが、対応するプロジェクトライフサイクルと性能要件が若干異なります。
本ガイドでは、各ソリューションのアーキテクチャ、トレーニング手法、および最適なユースケースについて詳細な分析を提供し、人工知能プロジェクトに最適なソリューションの選択を支援します。
アーキテクチャの革新
YOLOv8 YOLO11 YOLOv8 移行では、計算オーバーヘッドを最小化しつつ特徴抽出効率を最大化することを目的とした、いくつかの重要なアーキテクチャ上の改良がYOLO11 。
YOLO11アーキテクチャ
YOLO11 パラメータ使用の最適化において大きな飛躍をYOLO11 。従来のC2fモジュールを高度なC3k2ブロックに置き換え、パラメータ数を膨張させることなく空間特徴処理を強化している。YOLO11 バックボーン内にC2PSA(Cross-Stage Partial Spatial Attention)モジュールをYOLO11 。この注意機構によりモデルは重要な関心領域に焦点を当てることが可能となり、微小物体検出能力と複雑な遮蔽処理能力が劇的に向上した。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:Ultralytics リポジトリ
- ドキュメント:YOLO11
YOLOv8アーキテクチャ
1年前に発表されたYOLOv8 、アンカーボックスの手動調整を不要にし損失関数の定式化を簡素化した、アンカーフリー検出ヘッドへの移行をYOLOv8 。そのアーキテクチャはC2fブロックに大きく依存しており、この設計はネットワークの深さと勾配の流れのバランスを成功裏に取っており、幅広いコンピュータビジョンアプリケーションにおいて非常に頑健である。
- 著者: Glenn Jocher、Ayush Chaurasia、Jing Qiu
- 組織:Ultralytics
- 日付: 2023-01-10
- GitHub:Ultralytics リポジトリ
- ドキュメント:YOLOv8 Docs
デザイン哲学
YOLOv8 Ultralytics におけるアンカーフリー検出の基盤をYOLOv8 一方、YOLO11 空間的注意機構によってこの手法をYOLO11 、より少ない計算資源で高い精度を達成した。
性能とベンチマーク
ラズベリーパイなどのエッジデバイスや、NVIDIA GeForce GPUを搭載した高性能サーバーにモデルを展開する際 NVIDIA TensorRTを実行する高性能サーバーなどのエッジデバイスにモデルをデプロイする際には、速度と精度のトレードオフを理解することが極めて重要です。以下の表は、YOLO11 全YOLOv8 YOLO11 上回る性能を発揮することを示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv8n | 640 | 37.3 | 80.4 | 1.47 | 3.2 | 8.7 |
| YOLOv8s | 640 | 44.9 | 128.4 | 2.66 | 11.2 | 28.6 |
| YOLOv8m | 640 | 50.2 | 234.7 | 5.86 | 25.9 | 78.9 |
| YOLOv8l | 640 | 52.9 | 375.2 | 9.06 | 43.7 | 165.2 |
| YOLOv8x | 640 | 53.9 | 479.1 | 14.37 | 68.2 | 257.8 |
指標の分析
YOLO11 、パラメータ数と浮動小数点演算量(FLOPs)を同時に削減しながら、著しく高い平均精度(mAP)YOLO11 。 例えば、YOLO11mモデルはYOLOv8m 22%少ないパラメータでYOLOv8m COCO mAP 1.3%高いmAP を達成します。さらに、ONNX エクスポートした際のCPU 速度は、YOLO11 大幅に高速YOLO11 示しており、専用のGPU 必要としないデプロイメントに最適な選択肢となります。
Ultralyticsエコシステムの利点
YOLO11 YOLOv8どちらを選択しても、両モデルはUltralytics 恩恵を受け、機械学習のライフサイクルを劇的に簡素化します。
使いやすさとシンプルなAPI
The ultralytics Python 、エンジニアや研究者がわずか数行のコードでモデルのトレーニング、検証、エクスポートを行える合理化されたAPIを提供します。これにより、深層学習環境の構築に伴う典型的な複雑さが抽象化されます。 PyTorch.
トレーニング効率とメモリ要件
重いビジョン・トランスフォーマー(例: RT-DETR)とは異なり、Ultralytics YOLO トレーニング時のメモリ使用量が少ないことで知られています。このメモリ効率性により、開発者はGoogle などのクラウド環境やコンシューマー向けGPU上で最先端のネットワークをトレーニングでき、メモリ不足エラーに直面することなく作業を進められます。
多様な視覚タスクへの適応性
YOLO11 YOLOv8 YOLO11 真のマルチタスク学習YOLOv8 。標準的な境界ボックス物体検出に加え、インスタンスセグメンテーション、画像分類、人体姿勢推定、航空写真向けのオリエンテッド境界ボックス(OBB)をネイティブにサポートする。
ユースケースと推奨事項
YOLOv8 YOLO11 具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステムの好みにYOLOv8 。
YOLO11を選択すべき時
YOLO11 以下に最適YOLO11 :
- 生産環境への導入: ラズベリーパイやNVIDIA などのデバイス上で動作する商用アプリケーションにおいて、信頼性と積極的なメンテナンスが最優先事項となる場合。
- マルチタスク視覚アプリケーション:単一の統合フレームワーク内で検出、セグメンテーション、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイメント:データ収集から生産までを迅速に進める必要があるチーム向けに、Ultralytics Python 効率化されたインターフェースを提供します。
YOLOv8を選択すべき時
YOLOv8 以下に推奨YOLOv8 :
- 多目的マルチタスク展開: Ultralytics 内で、検出、セグメンテーション、分類、姿勢推定のための実績あるモデルを必要とするプロジェクト。
- 確立された生産システム: YOLOv8 構築済みの既存生産環境で、安定し十分にテスト済みのデプロイメントパイプラインを備える。
- 広範なコミュニティとエコシステムによるサポート: YOLOv8豊富なチュートリアル、サードパーティ統合、活発なコミュニティリソースを活用するアプリケーション。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:
- NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
- CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
- 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。
コード例:はじめに
Ultralytics 。以下の例では、YOLO11 、カスタムデータセットでの微調整、 CoreMLを使用したエッジデプロイメント向けエクスポート方法を示します:
from ultralytics import YOLO
# Initialize the YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model efficiently with optimized memory requirements
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Evaluate the validation performance
metrics = model.val()
# Run real-time inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
# Export to CoreML for fast mobile deployment
export_path = model.export(format="coreml")
シームレスなアップグレード
Ultralytics 標準化されているため、レガシーパイプラインをYOLOv8 からYOLO11 YOLOv8 アップグレードするには、YOLO11 、重み文字列を "yolov8n.pt" 宛先 "yolo11n.pt".
展望:YOLO26によるエッジAIの頂点
YOLO11 成熟した高性能なアーYOLO11 、AI技術の革新は急速に進んでいます。新規プロジェクトを開始する開発者で、絶対的な最先端性能を必要とする方には、Ultralytics (2026年1月リリース)が究極の選択肢となります。
YOLO26は、いくつかの画期的な機能によりコンピュータビジョンの限界を押し広げます:
- エンドツーエンドのNMS設計:YOLOv10で探求された概念を基盤とし、YOLO26はノン・マキシマム・サプレッション(NMS)後処理をネイティブに排除。これにより、あらゆるデプロイメントハードウェアにおいて、より低く予測可能なレイテンシを実現します。
- 最大43%高速CPU :ディストリビューション・フォーカル・ロス(DFL)ブランチを完全に削除することで、YOLO26は高性能GPUを欠くエッジコンピューティングデバイス向けに特別に最適化されています。
- MuSGDオプティマイザー:大規模言語モデル(LLM)の学習技術に着想を得たYOLO26は、ハイブリッドMuSGDオプティマイザーを採用し、驚くほど安定した高速な学習収束を実現します。
- ProgLoss + STAL:これらの高度な損失関数は、自律ロボットやドローンベースの分析に不可欠な、微小かつ重度に遮蔽された物体認識において顕著な改善をもたらす。
YOLOv8信頼性、YOLO11最適化されたアーキテクチャ、あるいはYOLO26の次世代機能のいずれに依存する場合でも、Ultralytics 、ビジョンAIアプリケーションをコンセプトから本番環境までシームレスに移行させるために必要なツールを確実に提供します。モデルを企業のワークフローや分析ダッシュボードと接続するための豊富な統合機能を活用してください。