YOLO11 YOLOv6.0:包括的な技術比較
コンピュータビジョン分野は急速に進化しており、適切なモデルアーキテクチャの選択は機械学習実践者にとって極めて重要な決定事項である。リアルタイム物体検出の進展における二つの重要なマイルストーンは YOLO11 とYOLOv6である。両モデルとも視覚データから知見を抽出する点で優れた能力を発揮するが、開発時の主要目的と設計思想は異なっている。
このガイドでは、各AIフレームワークのアーキテクチャ、パフォーマンス指標、および最適な導入シナリオを比較する詳細な技術分析を提供し、次なるAIプロジェクトにおける情報に基づいた意思決定を支援します。
モデルの概要
技術的なベンチマークに深く入る前に、各モデルの起源と中核的な焦点を理解しておくと有益です。
Ultralytics YOLO11
Ultralytics ネイティブにYOLO11 、シームレスなエンドツーエンドの開発体験を提供するためにYOLO11 。単なる処理速度だけでなく、マルチタスク対応の汎用性、使いやすさ、そして最新のデプロイメントパイプラインとの統合性を重視しています。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:Ultralytics リポジトリ
- ドキュメント:YOLO11ドキュメント
Meituan YOLOv6-3.0
YOLOv6.YOLOv6、専用のグラフィックス処理ユニット(GPU)が利用可能な産業用途向けに明示的に最適化されています。 TensorRT デプロイ向けに最適化されており、管理された環境におけるスループットの最大化に重点を置いています。
- 著者: Chuyi Li、Lulu Li、Yifei Geng、Hongliang Jiang、Meng Cheng、Bo Zhang、Zaidan Ke、Xiaoming Xu、Xiangxiang Chu
- 組織:Meituan
- 日付: 2023-01-13
- Arxiv:2301.05586
- GitHub:Meituan YOLOv6 リポジトリ
- ドキュメント:YOLOv6 ドキュメント
アーキテクチャの違い
基盤となるアーキテクチャは、モデルの学習方法と拡張性を決定する。両フレームワークは、YOLO 独自の改良を加えている。
YOLO11 長年の研究をYOLO11 驚くほどパラメータ効率に優れたアーキテクチャを実現しています。高度なバックボーンと汎用的なヘッドを備え、インスタンスセグメンテーションや姿勢推定など多様なコンピュータビジョンタスクを、大規模な構造変更を必要とせずに処理YOLO11 。さらにYOLO11 極めて低い CUDA メモリ要件を実現し、より大容量なトランスフォーマーモデル(例: RT-DETRなどの大型トランスフォーマーモデルとは一線を画しています。
一方、YOLOv6.YOLOv6双方向連結(BiC)モジュールとアンカー補助学習(AAT)戦略を採用している。これらの機構は位置特定精度を向上させるために設計された。アーキテクチャは主に分離化され、INT8モデル推論を優先するために高度に量子化されているため、レガシーGPU 稼働させる高速製造ライン向けの有力候補となっている。
適切なフレームワークの選択
プロジェクトで迅速なプロトタイピング、多様なタスクサポート(セグメンテーションや分類など)、そして様々なハードウェア(CPU、EdgeTPU、モバイル)への展開が必要な場合、Ultralytics は開発者体験を大幅にスムーズにします。
パフォーマンスとメトリクス
モデル評価においては、平均精度(mAP)と推論速度が最も重要である。以下の表は、様々なモデルスケールYOLO11 YOLOv6 YOLO11 YOLOv6の性能を比較したものである。最高の性能指標は太字で強調表示されている。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv6-3.0n | 640 | 37.5 | - | 1.17 | 4.7 | 11.4 |
| YOLOv6-3.0s | 640 | 45.0 | - | 2.66 | 18.5 | 45.3 |
| YOLOv6-3.0m | 640 | 50.0 | - | 5.28 | 34.9 | 85.8 |
| YOLOv6-3.0l | 640 | 52.8 | - | 8.95 | 59.6 | 150.7 |
実証された通り、YOLO11 同等の性能レベルにおいて、パラメータ数とFLOPsを大幅に削減しながらも、YOLO11 高い精度(mAP)を達成している。このパラメータ効率は、モデル学習時と推論時の両方で、メモリ要件の低減に直接つながる。
Ultralyticsの利点
モデル選択は単なる数値指標以上の問題であり、機械学習のライフサイクル全体に関わるものです。Ultralytics 、開発者と研究者の双方に明確な優位性をもたらします。
- 使いやすさ: Ultralytics Python を使用すれば、わずか数行のコードでモデルのトレーニング、検証、エクスポートが可能です。複雑な依存関係ツリーを手動で設定する必要はありません。
- 整備されたエコシステム: Ultralytics 頻繁に更新される統合エコシステムUltralytics Ultralytics を活用することで、開発者は共同データセットアノテーション、クラウドトレーニング、シームレスなモデルモニタリングを利用できます。
- 汎用性:主にバウンディングボックス検出器であるYOLOv6とは異なり、YOLO11 画像分類と方向付きバウンディングボックス(OBB) YOLO11 サポートしているため、技術スタックを統合することが可能です。
- トレーニング効率:最新の最適化技術と自動バッチ処理を活用し、YOLO11 コンシューマー向けハードウェア上で効率的にYOLO11 。これにより最先端のビジョンAIへのアクセスが民主化される。
コード例: トレーニングと推論
Ultralytics 直感的です。以下は、Ultralytics トレーニングと推論を実行する方法を示す、100%実行可能な例です。
from ultralytics import YOLO
# Load a pre-trained YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model efficiently on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Run inference on an image from the web
prediction = model("https://ultralytics.com/images/bus.jpg")
# Export the model to ONNX format for easy deployment
model.export(format="onnx")
理想的なユースケース
各モデルの得意分野を理解することで、適切なツールを選択できます。
YOLOv6を選択すべき場合: TensorRT .x/8.xパイプラインを明示的に前提として構築されたレガシー産業システムを維持しており、ハードウェアが高速製造自動化専用のNVIDIA A100 GPUのみで構成されている場合、YOLOv6 有効かつ高性能なエンジンYOLOv6 。
YOLO11すべき場合: ほぼすべての現代的なアプリケーションにおいて、YOLO11 優れたYOLO11 。スマート製造ソリューションの構築、Raspberry PiデバイスへのエッジAIの展開、医療画像の検出とセグメンテーションといったマルチタスク処理など、YOLO11 速度、精度、展開の柔軟性の最適なバランスYOLO11 。
展望:最先端のYOLO26
YOLO11 大きな飛躍をYOLO11 一方で、Ultralytics コンピュータビジョンの限界をUltralytics 押し広げている。2026年1月にリリースされた新たな YOLO26 モデルシリーズは絶対的な最先端技術であり、新規プロジェクト全般において推奨されるモデルです。
YOLO26は、現代のデプロイメント課題に特化して設計された画期的な機能を複数導入しています:
- エンドツーエンドのNMS設計:YOLOv10が先駆けた概念を基盤とし、YOLO26はネイティブにエンドツーエンドです。これにより、非最大抑制(NMS)後処理を完全に排除し、より高速で大幅に簡素化されたデプロイメントパイプラインを実現します。
- DFL除去:分布焦点損失を除去することで、YOLO26はネットワークヘッドを簡素化し、低電力IoT(モノのインターネット)およびエッジデバイスとの互換性を大幅に向上させます。
- MuSGDオプティマイザー:大規模言語モデル(LLM)のトレーニング革新(Moonshot AIのKimi K2など)に着想を得たYOLO26は、ハイブリッドSGD を採用し、比類のないトレーニング安定性と高速な収束を保証します。
- 最大43%高速CPU :専用GPU なしで動作するアプリケーション向けに、YOLO26は純粋CPU を大幅に最適化しています。
- ProgLoss + STAL:これらの高度な損失関数は、ドローン画像や航空監視において極めて重要な小規模物体認識において顕著な改善をもたらす。
- タスク特化型改良:YOLO26は、セグメンテーション向けのマルチスケールプロトタイピングや姿勢推定向けの残差対数尤度推定(RLE)など、全タスクにわたるカスタマイズされた改良点を含みます。
今日、新たなコンピュータービジョンプロジェクトを開始する場合、Ultralytics を活用してYOLO26モデルをトレーニングすることで、アプリケーションが利用可能な最も効率的で正確、かつ将来性のあるアーキテクチャ上に構築されることが保証されます。
オープンボキャブラリ検出の探索に関心のある開発者は、YOLOに関する当社のドキュメントも参照できます。