コンテンツにスキップ

YOLO11 YOLOv5:Ultralytics 包括的な技術比較

適切なニューラルネットワークアーキテクチャの選択は、あらゆるコンピュータビジョンプロジェクトにおいて極めて重要な決定事項である。人工知能の分野が進化するにつれ、開発者や研究者が利用できるツールも同様に進化している。この包括的なガイドでは、2つの画期的なモデルを詳細に技術的に比較する。 Ultralytics のエコシステムから生まれた2つの画期的なモデル、高く評価されているYOLOv5 YOLO11 YOLOv5 詳細な技術比較を行います。

エッジAIアプリケーション向けに軽量モデルを展開する場合でも、クラウドGPU上で高解像度ビデオストリームを処理する場合でも、これらのモデルのアーキテクチャ上の微妙な違い、パフォーマンス指標、および理想的なユースケースを理解することで、特定の展開制約に対してデータに基づいた選択を行うことが可能になります。

モデル系統と技術的詳細

両モデルとも、Ultralyticsオープンソース協業への取り組み、堅牢なパフォーマンス、比類のない使いやすさを体現しており、世界中の機械学習コミュニティから高い支持を得ています。

YOLO11

YOLO11の詳細について。

YOLOv5

YOLOv5について詳しくはこちら

アーキテクチャの違い

YOLOv5 YOLO11 YOLOv5 進化では、精度とパラメータ効率を最適化するために設計された、いくつかの根本的なアーキテクチャの変更がYOLO11 。

YOLOv5 PyTorch エコシステムにおける先駆者であり、高度に最適化されたCSPNet(Cross Stage Partial Network)バックボーンとPANet(Path Aggregation Network)ネックを導入しました。これはアンカーベース検出に依存しており、物体の境界を予測するために事前定義されたアンカーボックスが必要でした。非常に効果的ではあったものの、カスタムコンピュータビジョンデータセット向けにこれらのアンカーを調整するのは煩雑な作業となる可能性がありました。

対照的に、YOLO11 より現代的なアンカーフリー検出パラダイムへとYOLO11 。これにより手動でのアンカーボックス調整が不要となり、トレーニングプロセスが効率化され、COCO のような多様なデータセットにおける汎化性能が向上した。YOLO11 分離型ヘッドYOLO11 、分類タスクと境界ボックス回帰タスクが別々のブランチで処理される。この分離により収束速度と平均精度(mAP)が大幅に向上し、特に複雑な物体検出シナリオにおいて顕著な効果を発揮する

性能指標とベンチマーク

以下の表は、異なるモデルサイズにおける主要指標を比較したものです。Ultralytics メモリ要件の低さで知られており、CUDA 、大規模なトランスフォーマーベースの代替モデルと比較して一般的に少ないため、ハードウェア導入障壁を大幅に低減します。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

観察されたように、YOLO11 極めて良好な性能バランスYOLO11 、YOLOv5 と同等のパラメータ数で一貫して高いmAP を実現している。

トレーニング方法論とユーザビリティ

Ultralytics の中核をなすのは、優れた使いやすさであり、これはよく整備されたエコシステムと広範なコミュニティサポートによって支えられています。

YOLOv5 、堅牢なコマンドラインインターフェース(CLI)スクリプトに依存していた(train.py, detect.py実行のために。強力ではあるものの、これらのスクリプトをPython に直接統合するには、しばしば回避策が必要でした。

YOLO11 、合理化された手法を導入することでこの分野にYOLO11 。 ultralytics Python 。この統一APIは、トレーニングから モデルのエクスポート フォーマットのような ONNX, OpenVINO、および TensorRT ネイティブに。

Ultralytics による効率的な導入

完全にノーコードの体験を実現するため、開発者はUltralytics を活用してデータの注釈付け、クラウド上でのモデルトレーニング、そしてエッジデバイスへのシームレスなデプロイを実行できます。

コード比較

Ultralytics トレーニングは、今日では非常に効率的です。以下に、ネイティブPython YOLO11 トレーニングする方法を示します:

from ultralytics import YOLO

# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")

# Train the model on custom data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)

# Export the model to ONNX for deployment
model.export(format="onnx")

YOLOv5を利用するレガシーシステムでは、CLI 経由でのトレーニングは以下のCLI :

# Clone the repository and run the training script
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt

python train.py --img 640 --batch 16 --epochs 50 --data coco128.yaml --weights yolov5s.pt

理想的な使用例と実世界の応用例

両モデルは、異なる運用環境に合わせて設計された独自の強みを備えている。

YOLOv5を活用すべきタイミング

新世代のモデルが登場したにもかかわらず、YOLOv5 強力なYOLOv5 。以下の用途に強く推奨されます:

  • レガシーシステム統合: tensor プロイメントパイプラインと深く統合された環境で、容易にリファクタリングできないもの。
  • 学術的基準線: 医療画像解析における再現性のある学術研究のために、確立された長年の基準線が必要な研究者向け。

YOLO11いつ活用すべきか

YOLO11 はその驚異的な汎用性により、現代の制作パイプラインにおける理想的なYOLO11 :

展望:YOLO26アーキテクチャ

YOLO11 卓越した基準としてYOLO11 一方で、コンピュータビジョンの最先端技術は急速に進歩を続けています。効率性の絶対的な頂点を求める開発者は、Ultralytics (2026年1月リリース)も検討すべきです。

YOLO26は、エッジ最適化とエンタープライズ規模の両方を明確に設計対象とした、飛躍的な進化を遂げたモデルです。主な革新点は以下の通りです:

  • エンドツーエンドNMS設計:YOLO26はネイティブにエンドツーエンドであり、ノンマキシマムサプレッション(NMS)後処理を排除することで、より高速かつシンプルな展開を実現します。
  • DFL除去:モデルエクスポートの簡素化と低消費電力デバイスとの互換性向上のため、分布焦点損失(DFL)が除去されました。
  • MuSGDオプティマイザー: SGD ミューオンの画期的なハイブリッド技術。大規模言語モデル(LLM)の安定性をコンピュータビジョンに導入し、収束速度を向上させます。
  • 最大43%高速CPU :IoTデプロイメントおよび専用GPUを持たないデバイス向けに大幅に最適化されています。
  • ProgLoss + STAL:損失関数を大幅に改良し、航空ドローン画像において極めて重要な小物体認識性能を顕著に向上させた。

YOLO26についてさらに詳しく

概要

YOLO11 YOLOv5 選択はYOLOv5 プロジェクトのライフサイクル段階によって決まりますYOLOv5 YOLOv5確固たる実績は否定できず、極めて高い安定性と大規模なコミュニティの支持を提供します。しかし、新規プロジェクトにおいては YOLO11 を旧世代よりも強く推奨します。最先端の精度、非常に洗練されたPython 、そして低いトレーニングメモリオーバーヘッドを兼ね備え、UltralyticsAIイノベーションの最前線に立つ地位を確固たるものにしています。さらに限界に挑戦する方々は、Ultralytics 上で最先端のYOLO26を探求することで、比類のない結果を得られるでしょう。


コメント