コンテンツにスキップ

YOLO11 YOLOv5比較:最先端の物体検出の進化

リアルタイム物体検出の進化は、Ultralytics YOLO シリーズによって大きく形作られました。 YOLOv52020年にリリースされたYOLOv5は、使いやすさ、スピード、信頼性のグローバルスタンダードを確立し、史上最も導入されたビジョンAIモデルのひとつとなった。 YOLO11は、この伝説的な基盤の上に構築され、かつてない精度、効率性、汎用性を実現している。

本ガイドは、この2つの強豪の詳細な技術的比較を提供し、開発者や研究者がそれぞれのアーキテクチャのシフト、パフォーマンスの向上、理想的なユースケースを理解するのに役立つ。

パフォーマンス分析

YOLO11 YOLOv5 性能差は、ニューラルネットワーク設計の急速な進歩を浮き彫りにしている。YOLOv5 有能なモデルであることに変わりはないが、YOLO11 すべてのモデルスケールで、特にCPU 推論速度と検出精度の点で一貫してYOLO11を上回っている。

主要業績評価指標

下の表は、COCO データセットでの比較です。YOLO11nは 39.5mAP達成し、YOLOv5nの28.0mAP大きく上回っています。

モデルサイズ
(ピクセル)
mAP
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

精度と効率の比較

YOLO11 、「効率対精度」のトレードオフにおけるパラダイムシフトを象徴している。

  • 小さな物体の検出: YOLO11 、特徴抽出レイヤーの改良により、YOLOv5比較して小物体の検出を大幅に改善した。
  • 計算効率:YOLO11lは、わずか25.3Mのパラメータで53.4mAP 達成した。一方、YOLOv5lは53.2Mのパラメータを必要とし、49.0という低いmAP 達成しています。精度を高めるためにパラメータを50%削減することは、メモリ使用量の削減とトレーニング時間の短縮につながります。

アンカーフリー vs アンカーベース

技術的に最も大きな違いのひとつは、検出ヘッドのメカニズムである。 YOLOv5アンカーベースのアプローチを採用しており、最適なパフォーマンスを達成するためには、特定のデータセット用に調整されたアンカーボックスが必要である。

YOLO11アンカーフリー設計を採用している。これにより、手作業によるアンカーボックスの計算が不要になり、学習パイプラインが簡素化され、ハイパーパラメータをチューニングすることなく、多様なデータセットでの汎化が向上する。

モデル・アーキテクチャとデザイン

これら2つのモデルのアーキテクチャの違いは、数年にわたるコンピュータビジョン研究の進展を反映している。

YOLOv5:証明されたスタンダード

YOLOv5は、ユーザーフレンドリーなPyTorch 実装を導入し、オブジェクト検出を大衆に身近なものにした。

  • バックボーン:改良型CSPDarknet53を利用する。これは非常に効果的だが、最新の代替手段よりも計算が重い。
  • フォーカス:スピードと精度のバランスを優先し、2020年の発売時には画期的なものだった。
  • レガシー:すでに特定の入出力フォーマットと深く統合されているシステムにとっては、依然として「安全な選択」である。

YOLOv5の詳細について。

YOLO11:最先端

YOLO11は、最新のディープラーニング技術を統合し、特徴の再利用を最大化し、計算オーバーヘッドを最小化する。

  • C3k2ブロック:CSPのボトルネックを進化させたこのブロックは、より効率的な勾配フローと特徴融合を可能にする。
  • C2PSAモジュール:空間的な注意のメカニズムを導入し、モデルが画像の重要な部分に集中することで、対象物の定位が向上します。
  • マルチタスク・ヘッド:タスクごとに別々のモデル・フォークを必要とするYOLOv5異なり、YOLO11 、統一されたフレームワークで、オブジェクト検出インスタンス・セグメンテーション姿勢推定OBB(Oriented Bounding Boxes)、分類をネイティブにサポートする。

YOLO11の詳細について。

比較表技術仕様

特徴YOLOv5YOLO11
アーキテクチャCSPDarknetバックボーンC3k2とC2PSAで洗練されたバックボーン
検出ヘッドアンカーベースアンカー・フリー
タスク検出、セグメント化、分類検出、分割、分類、ポーズ、OBB、追跡
ライセンスAGPL-3.0AGPL-3.0
発売日2020年6月2024年9月
使いやすさHigh (コマンドライン &PyTorch Hub)非常に高い(統合Python SDKとCLI

トレーニングとエコシステム

どちらのモデルも、データ管理、トレーニング、展開のためのシームレスなツールを提供する、堅牢なUltralytics エコシステムの恩恵を受けています。

トレーニング効率

YOLO11 、YOLOv5速く訓練し、より早く収束するように設計されている。

  • スマートなデフォルト: Ultralytics エンジンは、データセットとモデルサイズに基づいてハイパーパラメータを自動的に設定するため、手動でハイパーパラメータを調整する必要性が減少します。
  • メモリ使用量: YOLO11 モデルは、パラメータ数が削減されているため、一般的に学習時のGPU VRAM消費量が少なく、民生用ハードウェアでより大きなバッチサイズを使用することができます。

コード例トレーニングYOLO11

YOLO11 トレーニングは、以下の方法で効率化されています。 ultralytics Python パッケージ。次の例は、COCO8 データセットでYOLO11nモデルを学習する方法を示している。

from ultralytics import YOLO

# Load a pre-trained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model
# The device argument can be 'cpu', 0 for GPU, or [0, 1] for multi-GPU
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)

エコシステムの統合

YOLOv5 、その古さゆえに膨大なサードパーティのチュートリアル・コレクションがあるが、YOLO11 11は最新のUltralytics パッケージにネイティブに統合されている。これにより、高度な機能にすぐにアクセスできる:

  • ワンクリックでエクスポート:エクスポート先 ONNX, OpenVINOTensorRT、CoreML 1つのコマンドでエクスポートできます。
  • トラッキング:外部リポジトリなしでオブジェクトトラッキング(BoT-SORT、ByteTrack)をビルトインサポート。
  • エクスプローラ Ultralytics ExplorerAPIを使用して、SQLとセマンティック検索を使用してデータセットを視覚化し、クエリを実行します。

理想的なユースケース

適切なモデルの選択は、プロジェクト特有の制約や要件に依存する。

YOLO11選ぶとき

YOLO11 11は、新規プロジェクトの95%で推奨されている

  1. 新たな展開:ゼロから始めるなら、YOLO11 11は最高の将来性、正確性、スピードを提供する。
  2. CPU デプロイメント: CPU 上で動作するエッジ・デバイス(例:Raspberry Pi、携帯電話)の場合、YOLO11nはYOLOv5nよりも大幅に高速かつ高精度です。
  3. 複雑なタスク: ポーズ推定や OBBを必要とするプロジェクト(航空写真や文書分析など)は、YOLO11ネイティブにサポートされます。
  4. クラウド&サーバー: YOLO11 高いスループットは、膨大なビデオストリームをリアルタイムで処理するのに理想的です。

YOLOv55にこだわるとき

YOLOv5 5は、特定のレガシーシナリオにおいては、依然として有効な選択肢である。

  1. レガシーメンテナンス:特定のYOLOv5 コードベースや出力フォーマットと密接に結びついた生産システムがある場合。
  2. 特定のハードウェアのチューニング:古い組込みアクセラレータの中には、YOLOv5 レイヤー用に特別に検証された、高度に最適化されたファームウェアを持っているものがあるかもしれない(ただし、OpenVINO ような最新のランタイムのほとんどは、現在、より新しいアーキテクチャを支持している)。
  3. 学術的ベースライン:歴史的なベースラインと比較する研究者は、YOLOv5 文献の中で長年存在するため、YOLOv5 引き合いに出すことが多い。

YOLO11移行

YOLOv5 YOLO11 移行は簡単です。データセットのフォーマットYOLO TXT)は同じままなので、既存のアノテーション付きデータセットを変更することなく再利用できる。Python API構造も非常に似ており、モデル名文字列の変更だけで済むことが多い(例えば yolov5su.pt 宛先 yolo11n.pt の中にある。 ultralytics パッケージ)。

他の選択肢を探る

Ultralytics 、YOLO11 YOLOv5でなく、幅広いモデルをサポートしています。具体的なニーズに応じて、ご検討ください:

  • YOLOv8 YOLO11直接の前身で、優れた機能のバランスを提供し、業界で広く採用されている。
  • YOLOv10特定のリアルタイム・アプリケーションにおける低レイテンシーを実現するために、NMSトレーニングに焦点を当てたアーキテクチャ。
  • RT-DETR:推論速度が最大精度よりも重要でない場合に優れた精度を発揮する変換器ベースの検出器。
  • YOLOv9プログラム可能な勾配情報(PGI)コンセプトで知られ、難しい検出タスクで強力な性能を発揮。

結論

YOLOv5 YOLO11 移行は、コンピュータビジョンの歴史において重要なマイルストーンとなる。 YOLOv5はAIを民主化し、物体検出を誰もが利用できるようにした。 YOLO11はこのビジョンを完成させ、より速く、より軽く、より正確なモデルを提供します。

ワットあたりの絶対的なパフォーマンスと最も汎用性の高い機能セットを求める開発者にとって、YOLO11 11は明確な勝者です。アクティブなUltralytics エコシステムに統合されているため、最新のツール、シンプルなAPI、活発なコミュニティへのアクセスが保証され、あなたのAIの旅をサポートします。

アップグレードの準備はできましたか?YOLO11 ドキュメンテーションをチェックするか、GitHubリポジトリを検索して今すぐ始めましょう。


コメント