YOLOv9 YOLOv5:現代の物体検出技術への深い探求
コンピュータビジョン分野は驚異的な成長を遂げており、物体検出は無数の産業・研究アプリケーションの基盤となっている。適切なアーキテクチャの選択には、平均精度(mAP)、推論速度、メモリオーバーヘッドの慎重な評価が求められる。本比較では、二つの極めて影響力のあるモデルを検証する: YOLOv9(勾配情報の保持におけるアーキテクチャ的革新で知られる)と Ultralytics YOLOv5。後者は実戦で鍛えられた業界標準モデルとして、驚異的な使いやすさと比類のないデプロイの汎用性で知られています。
アーキテクチャの革新と技術的起源
これら二つのモデルの根底にある仕組みを理解することは、それぞれの性能プロファイルを理解する上で重要な文脈を提供する。
YOLOv9: プログラマブル勾配情報
台湾の中央研究院情報科学研究所のChien-Yao WangとHong-Yuan Mark Liaoの研究者によって開発されたYOLOv9は、2024年2月21日にリリースされました。このモデルは、深層ニューラルネットワークに共通する情報ボトルネックに対処するための2つの画期的な概念、Programmable Gradient Information(PGI)とGeneralized Efficient Layer Aggregation Network(GELAN)を導入しています。
PGIを利用することで、YOLOv9は順伝播処理全体で重要な情報が保持されることを保証し、非常に正確な勾配更新につながります。一方、GELANアーキテクチャはパラメータ効率を最大化し、驚くほど低い計算オーバーヘッドでモデルが最先端の精度を達成することを可能にします。技術的な詳細は公式のYOLOv9 Arxiv論文で確認するか、YOLOv9 GitHubリポジトリをご覧ください。
Ultralytics YOLOv5: 生産環境の標準
Glenn Jocherによって執筆され、2020年6月26日にUltralyticsからリリースされたYOLOv5は、コンピュータビジョンのアクセシビリティに革命をもたらしました。PyTorchフレームワーク上でネイティブに構築された最初の物体検出モデルの1つとして、古いDarknet Cフレームワークの複雑さを回避しました。YOLOv5は、高度に最適化されたCSPNetバックボーンとPANetネックを活用し、速度と精度のシームレスなバランスを優先しています。
しかし、その最大の成果は、より広範なUltralytics への統合である。YOLOv5 高速なトレーニング効率と低メモリ環境向けに高度にYOLOv5 、エッジデプロイメントにおいて非常に安定した動作を実現している。
メモリ効率
エッジデバイス向けモデルを評価する際には、Ultralytics YOLO 、大規模なトランスフォーマーベースのアーキテクチャと比較して、トレーニング時と推論時の両方で、通常、大幅にGPU 必要とすることを覚えておいてください。
性能分析:速度 vs. 精度
コンピュータビジョンパイプラインを設計する際、開発者は精度とレイテンシのトレードオフを慎重に検討する必要があります。以下の表は標準的なCOCO における性能差を示しています。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv9t | 640 | 38.3 | - | 2.3 | 2.0 | 7.7 |
| YOLOv9s | 640 | 46.8 | - | 3.54 | 7.1 | 26.4 |
| YOLOv9m | 640 | 51.4 | - | 6.43 | 20.0 | 76.3 |
| YOLOv9c | 640 | 53.0 | - | 7.16 | 25.3 | 102.1 |
| YOLOv9e | 640 | 55.6 | - | 16.77 | 57.3 | 189.0 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
トレードオフの分析
YOLOv9 絶対的な精度優位性をYOLOv9 。YOLOv9eはGELAN層を活用して微細なディテールを保持し、mAP .mAP 押し上げた。これにより、医療画像や微小物体に対する厳密な精度が求められるシナリオにおいて、卓越した選択肢となる。
対照的に、YOLOv5は生のデプロイ速度とハードウェアの柔軟性において際立っています。YOLOv5n (Nano) は非常に軽量で、TensorRTを介してT4 GPU上でわずか1.12msで推論を実行します。制約のあるIoTデバイス、携帯電話、またはRaspberry Piにデプロイする場合、YOLOv5のメモリフットプリントは非常に高い信頼性をもたらします。
Ultralyticsエコシステムの利点
モデルを選択する際の主要な考慮事項は、それを取り巻くソフトウェアエコシステムです。YOLOv9はトップティアの研究ベンチマークを提供しますが、最新のUltralytics Python APIを通じて両方のモデルを利用することで、そのギャップを埋め、開発者に統一された合理的なエクスペリエンスを提供します。
使いやすさとエクスポート
Ultralytics 複雑な技術的課題をUltralytics 。自動データ拡張やハイパーパラメータ調整といった機能は標準で対応済みです。モデルの本番環境移行も同様に容易で、組み込みのエクスポートコマンドによりモデルを ONNX、 OpenVINO、または TFLite 形式。
タスクの汎用性
両モデルとも物体検出に優れていますが、Ultralytics 多様なコンピュータビジョン課題に対応できるよう設計されています。この広範なフレームワークは、画像分類、インスタンスセグメンテーション、姿勢推定、方向付きバウンディングボックス(OBB)をネイティブでサポートしており、開発者はコードベースを切り替えることなく複数のビジョン問題を解決できます。
ユースケースと推奨事項
YOLOv9とYOLOv5のどちらを選択するかは、特定のプロジェクト要件、デプロイの制約、およびエコシステムの好みによって異なります。
YOLOv9を選択すべき時
YOLOv9 以下のような場合に有力な選択肢YOLOv9 :
- 情報ボトルネック研究: プログラマブル勾配情報(PGI)および汎用効率的層集約ネットワーク(GELAN)アーキテクチャを研究する学術プロジェクトです。
- 勾配フロー最適化研究: トレーニング中の深層ネットワーク層における情報損失の理解と軽減に焦点を当てた研究。
- 高精度detectベンチマーク: YOLOv9の強力なCOCOベンチマーク性能が、アーキテクチャ比較の参照点として必要とされるシナリオ。
YOLOv5を選択すべき時
YOLOv5 以下に推奨YOLOv5 :
- 実績のある本番システム: YOLOv5の長年にわたる安定性、広範なドキュメント、および大規模なコミュニティサポートが評価されている既存のデプロイメント。
- Resource-Constrained Training: 限られたGPUリソースを持つ環境において、YOLOv5の効率的なトレーニングパイプラインと低いメモリ要件が有利です。
- 豊富なエクスポート形式のサポート: ONNX、TensorRT、CoreML、およびTFLiteを含む多くの形式でのデプロイを必要とするプロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
実装例
Ultralytics 優れた点は、重み付け文字列を変更YOLOv9 替えられることです。
from ultralytics import YOLO
# Load a pretrained YOLOv9 model (swap to "yolov5s.pt" to use YOLOv5)
model = YOLO("yolov9c.pt")
# Train the model efficiently on a custom dataset
train_results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on new images
predictions = model.predict("https://ultralytics.com/images/zidane.jpg")
# Export to ONNX for seamless deployment
model.export(format="onnx")
新しいアーキテクチャの探索
YOLOv5 YOLOv9 優れたYOLOv9 、それぞれ明確な利点を持っていますが、この分野は進化を続けています。新たなプロジェクトを検討しているユーザーは、Ultralytics最新バージョンも評価することをお勧めします。
- YOLO11: YOLOv8系統の強力で洗練された進化形であり、すべての視覚タスクにおいて優れた速度と精度のバランスを提供します。
- YOLO26: 2026年にリリースされたYOLO26は、最新のパイプラインにとって究極の推奨モデルです。エンドツーエンドのNMSフリー設計を導入し、後処理のボトルネックを完全に解消します。DFL除去(エクスポートの簡素化とエッジ/低電力デバイスとの互換性向上のため、Distribution Focal Lossを削除)により、最大43%高速なCPU推論を実現します。新しいMuSGDオプティマイザによりトレーニングの安定性が大幅に向上し、ProgLoss + STALは、IoT、ロボティクス、航空画像にとって重要な小オブジェクト認識において顕著な改善をもたらす改良された損失関数を提供します。これにより、エッジおよびクラウドの両方のデプロイメントにおいて最も堅牢なアーキテクチャとなっています。
大規模なデータセットと複雑なデプロイメントパイプラインを管理するチームにとって、Ultralytics Platformを利用することで、これらの最先端モデルを簡単に訓練、追跡、デプロイできるノーコードソリューションが提供されます。