YOLO11 YOLOv5:Ultralytics 包括的な技術比較
適切なニューラルネットワークアーキテクチャの選択は、あらゆるコンピュータビジョンプロジェクトにおいて極めて重要な決定事項である。人工知能の分野が進化するにつれ、開発者や研究者が利用できるツールも同様に進化している。この包括的なガイドでは、2つの画期的なモデルを詳細に技術的に比較する。 Ultralytics のエコシステムから生まれた2つの画期的なモデル、高く評価されているYOLOv5 YOLO11 YOLOv5 詳細な技術比較を行います。
エッジAIアプリケーション向けに軽量モデルを展開する場合でも、クラウドGPU上で高解像度ビデオストリームを処理する場合でも、これらのモデルのアーキテクチャ上の微妙な違い、パフォーマンス指標、および理想的なユースケースを理解することで、特定の展開制約に対してデータに基づいた選択を行うことが可能になります。
モデル系統と技術的詳細
両モデルは、オープンソースコラボレーション、堅牢なパフォーマンス、そして比類ない使いやすさに対するUltralyticsのコミットメントを反映しており、世界の機械学習コミュニティから高く評価されています。
YOLO11
- 著者:グレン・ヨーカーとチン・チウ
- 組織: Ultralytics
- 日付: 2024年9月27日
- GitHub:ultralytics
- ドキュメント:YOLO11
YOLOv5
- 著者:Glenn Jocher
- 組織: Ultralytics
- 日付: 2020-06-26
- GitHub:yolov5
- ドキュメント: YOLOv5 ドキュメント
アーキテクチャの違い
YOLOv5 YOLO11 YOLOv5 進化では、精度とパラメータ効率を最適化するために設計された、いくつかの根本的なアーキテクチャの変更がYOLO11 。
YOLOv5 PyTorch エコシステムにおける先駆者であり、高度に最適化されたCSPNet(Cross Stage Partial Network)バックボーンとPANet(Path Aggregation Network)ネックを導入しました。これはアンカーベース検出に依存しており、物体の境界を予測するために事前定義されたアンカーボックスが必要でした。非常に効果的ではあったものの、カスタムコンピュータビジョンデータセット向けにこれらのアンカーを調整するのは煩雑な作業となる可能性がありました。
対照的に、YOLO11 より現代的なアンカーフリー検出パラダイムへとYOLO11 。これにより手動でのアンカーボックス調整が不要となり、トレーニングプロセスが効率化され、COCO のような多様なデータセットにおける汎化性能が向上した。YOLO11 分離型ヘッドYOLO11 、分類タスクと境界ボックス回帰タスクが別々のブランチで処理される。この分離により収束速度と平均精度(mAP)が大幅に向上し、特に複雑な物体検出シナリオにおいて顕著な効果を発揮する。
性能指標とベンチマーク
以下の表は、異なるモデルサイズにおける主要指標を比較したものです。Ultralytics メモリ要件の低さで知られており、CUDA 、大規模なトランスフォーマーベースの代替モデルと比較して一般的に少ないため、ハードウェア導入障壁を大幅に低減します。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
観察されているように、YOLO11は非常に有利なパフォーマンスバランスを達成し、YOLOv5の同等モデルと比較して、同等のパラメータ数で一貫して高いmAPスコアを提供します。
トレーニング方法論とユーザビリティ
Ultralyticsの哲学の核となる信条は、適切に維持されたエコシステムと広範なコミュニティサポートに支えられた、卓越した使いやすさです。
YOLOv5 、堅牢なコマンドラインインターフェース(CLI)スクリプトに依存していた(train.py, detect.py)を実行します。これらは強力ですが、これらのスクリプトをカスタムのpythonアプリケーションに直接統合するには、多くの場合、回避策が必要でした。
YOLO11 、合理化された手法を導入することでこの分野にYOLO11 。 ultralytics Python 。この統一APIは、トレーニングから モデルのエクスポート フォーマットのような ONNX, OpenVINO、および TensorRT ネイティブに。
Ultralytics による効率的な導入
完全なノーコード体験のために、開発者はUltralytics Platformを利用して、データをアノテーションし、クラウドでモデルをトレーニングし、エッジデバイスにシームレスにデプロイできます。
コード比較
Ultralytics トレーニングは、今日では非常に効率的です。以下に、ネイティブPython YOLO11 トレーニングする方法を示します:
from ultralytics import YOLO
# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model on custom data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)
# Export the model to ONNX for deployment
model.export(format="onnx")
YOLOv5を利用するレガシーシステムの場合、CLIを介したトレーニングは次のようになります。
# Clone the repository and run the training script
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt
python train.py --img 640 --batch 16 --epochs 50 --data coco128.yaml --weights yolov5s.pt
理想的な使用例と実世界の応用例
両モデルは、異なる運用環境に合わせた独自の強みを持っています。
YOLOv5を活用すべきタイミング
新世代のモデルが登場したにもかかわらず、YOLOv5は依然として強力です。以下の場合に強く推奨されます。
- レガシーシステム統合: YOLOv5の特定のtensor構造や、容易にリファクタリングできないデプロイメントパイプラインと密接に統合されている環境。
- Academic Baselines: 医用画像解析における再現可能な学術研究のために、確立された長年のベースラインを必要とする研究者向け。
YOLO11いつ活用すべきか
YOLO11 はその驚異的な汎用性により、現代の制作パイプラインにおける理想的なYOLO11 :
- マルチタスク環境: 主にdetectorであるYOLOv5(後にsegmentationが追加された)とは異なり、YOLO11はインスタンスsegmentation、画像分類、姿勢推定、およびOriented Bounding Box (obb) detectを箱から出してすぐにネイティブにサポートしています。
- 高密度ビデオ分析: 複雑なシーンから最大限の精度を抽出することが重要となる、インテリジェント交通システムや小売在庫管理に最適です。
展望:YOLO26アーキテクチャ
YOLO11 卓越した基準としてYOLO11 一方で、コンピュータビジョンの最先端技術は急速に進歩を続けています。効率性の絶対的な頂点を求める開発者は、Ultralytics (2026年1月リリース)も検討すべきです。
YOLO26は、エッジ最適化とエンタープライズ規模の両方を明確に設計対象とした、飛躍的な進化を遂げたモデルです。主な革新点は以下の通りです:
- エンドツーエンドのNMSフリー設計: YOLO26はネイティブにエンドツーエンドであり、Non-Maximum Suppression (NMS) の後処理を排除することで、より高速でシンプルなデプロイメントを実現します。
- DFLの削除: Distribution Focal Lossが削除されたことで、モデルのエクスポートが簡素化され、低電力デバイスとの互換性が強化されました。
- MuSGDオプティマイザ: SGDとMuonの画期的なハイブリッドであり、LLMトレーニングの安定性をコンピュータビジョンにもたらし、より速い収束を実現します。
- CPU推論が最大43%高速化: IoTデプロイメントや専用GPUを持たないデバイス向けに大幅に最適化されています。
- ProgLoss + STAL: 大幅に改善された損失関数は、小オブジェクト認識において顕著な改善をもたらし、航空ドローン画像にとって不可欠です。
概要
YOLO11とYOLOv5の選択は、最終的にプロジェクトのライフサイクル段階によって決まります。YOLOv5のレガシーは揺るぎなく、極めて高い安定性と大規模なコミュニティサポートを提供します。しかし、新しいプロジェクトには、古い世代よりもYOLO11が強く推奨されます。YOLO11は、最先端の精度、非常に洗練されたPython API、そして低いトレーニングメモリオーバーヘッドを兼ね備えており、UltralyticsのAIイノベーションにおける最前線の地位を確固たるものにしています。さらに限界を押し広げたい方には、Ultralytics Platformで最先端のYOLO26を探索することで、比類のない結果が得られるでしょう。