コンテンツにスキップ

YOLOv5 vs YOLO11: 包括的な技術比較

新規プロジェクトに適したコンピュータビジョンアーキテクチャを選択する際、最先端モデルの進化を理解することが極めて重要です。初期のアーキテクチャから現代の統合フレームワークへの進展は、アルゴリズム効率と開発者体験の両面で大きな飛躍を浮き彫りにしています。本ガイドでは、Ultralytics開発した二つの画期的なモデル、YOLOv5 高度にYOLO11深い技術的比較を提供します。

モデルの紹介

これら両方のアーキテクチャはリアルタイム物体detectの分野における重要なマイルストーンを代表しており、デプロイ環境とレガシー要件に応じて明確な利点を提供します。

YOLOv5:産業の主力

2020年夏にリリースされたYOLOv5 、ネイティブな PyTorch 実装により、トレーニングとデプロイの参入障壁を大幅に引き下げたことで、業界標準として急速に普及しました。前世代の複雑なDarknet Cフレームワークから脱却し、モデル構築にPythonicなアプローチを提供しています。

YOLOv5 使いやすさの面で強力な基盤をYOLOv5 、高度なモザイクデータ拡張や自動アンカー設定といった強力な学習手法を導入しました。よく文書化され、徹底的にテストされたコードベースを基盤とする研究者にとって、今なお非常に人気が高いモデルです。

YOLOv5について詳しくはこちら

YOLO11: 統一ビジョンフレームワーク

長年のフィードバックとアーキテクチャ研究を基盤とし、YOLO11は、複数のビジョンタスクをネイティブに処理できる統合フレームワークの一部として導入されました。バウンディングボックスを超えて、最大限の汎用性と効率性のためにゼロから設計されました。

YOLO11 ultralytics Python 、統一されたシンプルなAPIを誇り 物体検出、インスタンスsegmentation、分類、姿勢推定、およびoriented bounding boxes (OBB)。速度と精度の間で非常に有利なトレードオフを実現し、多様な実世界のデプロイメントシナリオに最適です。

YOLO11の詳細について。

統合プラットフォーム

両方のモデルは、Ultralytics Platformによって提供される十分に維持されたエコシステムの恩恵を受けています。この統合環境は、データセットのアノテーション、クラウドトレーニング、およびさまざまなハードウェアターゲットへのモデルエクスポートを簡素化します。

パフォーマンスとメトリクスの比較

これらのモデルの直接比較により、アーキテクチャの改良が具体的なパフォーマンス向上にどのように結びつくかが明らかになります。以下の表は、COCOデータセットで評価された平均平均精度 (mAP) を、CPUおよびGPUの推論速度とパラメータ数とともに示しています。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

結果の分析

これらの指標は、YOLO11達成した性能バランスの明らかな飛躍を浮き彫りにしている。例えば、YOLO11n(nano)モデルは39.mAP を達成mAP YOLOv5nは28.0%である。同時に、ONNX経由でエクスポートした場合CPU 時間を削減している。 ONNXによるエクスポート時にはCPU推論時間を短縮しています。さらに、YOLO11 トレーニング時のメモリ要件がトランスフォーマーベースの大型モデルと比較して著しくYOLO11 、コンシューマー向けハードウェアやエッジデバイスへの展開が容易です。

アーキテクチャの違い

YOLO11 の性能向上は、いくつかの重要なアーキテクチャ進化にYOLO11 。YOLOv5 C3モジュールを用いた標準的なCSPNetバックボーンYOLOv5 に対し、YOLO11 C2fや後続のC3k2といったより効率的な特徴抽出ブロックYOLO11 。これらは勾配の流れを最適化し、計算オーバーヘッドを削減する。

YOLO11 高度に洗練されたYOLO11 特徴としている。旧モデルのアンカーベース設計から脱却し、Ultralytics アンカーフリーアプローチを採用。これによりボックス予測数が削減され、後処理パイプラインが効率化され、異なるスケールやアスペクト比におけるモデルの汎化能力が向上した。さらに、これらのモデルは優れた学習効率を誇り、事前学習済み重みが容易に入手可能なため、微調整データセットの収束を加速させる。

実装とコード例

Ultralytics 特筆すべき特徴の一つはそのシンプルさである。YOLOv5 一方で torch.hub 迅速な推論に関しては、YOLO11は統合された機能でさらに一歩進んでいます。 ultralytics Python 。

YOLO11を用いたトレーニング

モデルの読み込み、トレーニング、検証には最小限の定型コードしか必要としません。APIがハイパーパラメータ調整とモデル管理をシームレスに処理します。

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")

# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")

YOLOv5を用いたレガシー推論

古いパイプラインを維持している場合、YOLOv5 PyTorchネイティブローディング機構と直接YOLOv5 、既存の推論スクリプトに簡単に組み込むことができます。

import torch

# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")

# Print prediction details to the console
results.print()

デプロイの柔軟性

両モデルは広範なエクスポート形式をサポートしています。NVIDIA JetsonTensorRTでターゲットにする場合でも、CoreMLを使用するiOSアプリケーションをターゲットにする場合でも、デプロイプロセスは完全に文書化されており、コミュニティによってサポートされています。

理想的なユースケース

これらのモデルの選択は、主にプロジェクトのライフサイクル段階と特定の要件に依存します。

YOLOv5を選択すべき時

  • レガシーコードベースの維持: 本番環境がYOLOv5のリポジトリ構造、または特定のハイパーパラメータ進化手法に合わせて大幅にカスタマイズされている場合。
  • Academic Baselines: 確立された2020年から2022年のコンピュータビジョン標準と直接ベンチマークを行う研究を発表する場合。

YOLO11を選択すべき時

  • マルチタスクプロジェクト: アプリケーションが単一の統合されたAPIを使用して、姿勢推定インスタンスsegmentなどの複数のタスクの組み合わせを必要とする場合。
  • エッジデプロイメント: 所与の計算予算(FLOPs)に対して最大のmAPを絞り出すことが重要となるエッジコンピューティングのシナリオ向け。
  • 商用AIソリューション:小売業やセキュリティ分野におけるエンタープライズアプリケーションに最適であり、Ultralytics Platformの堅牢なサポートを活用できます。

次世代:Ultralytics

YOLO11 速度と精度の素晴らしいバランスYOLO11 、人工知能の分野は急速に進化しています。現在新規プロジェクトを開始する開発者には、ビジョンAIの最新標準であるUltralytics YOLO26の検討を強く推奨します。 Ultralytics

2026年1月にリリースされたYOLO26は、現代の展開ニーズに特化して設計されたパラダイムシフトをもたらす進歩を導入します:

  • エンドツーエンドNMSフリー設計: YOLOv10で初めて開拓された概念に基づいて構築されたYOLO26は、ネイティブにエンドツーエンドです。Non-Maximum Suppression (NMS)の後処理の必要性を排除することで、デプロイメントパイプラインを大幅に簡素化し、レイテンシを低減します。
  • MuSGD オプティマイザ: Moonshot AIのKimi K2のようなモデルからのLLMトレーニングイノベーションから着想を得たSGDとMuonのこのハイブリッドは、驚くほど安定したトレーニングと劇的に高速な収束を保証します。
  • 前例のないCPU速度: Distribution Focal Loss (DFL) を削除することで、YOLO26 は最大 43% 高速なCPU推論を実現し、専用GPUを持たないエッジデバイスや環境にとって最適な選択肢となります。
  • Advanced Loss Functions: ProgLossとSTALの統合は、小さなオブジェクトの認識において顕著な改善をもたらし、ドローン分析、IoT、およびロボティクスにとって重要です。
  • タスク固有の強化: ポーズ推定のためのResidual Log-Likelihood Estimation (RLE) や、oriented bounding boxesのための特化した角度損失など、専門的な最適化を導入し、すべてのコンピュータビジョンタスクで優れたパフォーマンスを保証します。

YOLO26についてさらに詳しく

標準的な物体detectを超えた特殊なアーキテクチャに興味があるユーザーは、トランスフォーマーベースのdetectにはRT-DETR、オープンボキャブラリーのtrackおよびdetectにはYOLO-Worldのようなモデルも検討できます。これらの適切に維持され、高度に最適化されたツールを活用することで、コンピュータービジョンパイプラインは効率的でスケーラブルであり、常に最先端を維持できます。


コメント