YOLOv5 YOLOX:包括的な技術比較
リアルタイムコンピュータビジョンの進化は数々の画期的な進展を遂げており、様々なアーキテクチャが速度と精度の限界を押し広げてきた。この分野で特に影響力の大きい2つのモデルは YOLOv5 とYOLOXである。両者とも物体検出における高性能で知られているが、根本的に異なるアーキテクチャアプローチを採用している。
このガイドでは、これら2つのモデルについて、アーキテクチャ、性能指標、トレーニング手法、および理想的な導入シナリオを比較しながら、詳細な技術分析を提供します。これにより、開発者や研究者が自身のビジョンAIプロジェクトに適したツールを選択する手助けとなります。
モデル概要とアーキテクチャの違い
Ultralytics YOLOv5
- Author: Glenn Jocher
- 組織:Ultralytics
- 日付: 2020-06-26
- GitHub:Ultralytics YOLOv5
- ドキュメント:YOLOv5 ドキュメント
Ultralyticsにより導入された YOLOv5 は、その卓越した性能、使いやすさ、メモリ効率のバランスにより、瞬く間に業界標準となりました。 PyTorch フレームワークYOLOv5 、アンカーベースのアーキテクチャYOLOv5 。これは事前定義された境界ボックス形状に依存して物体の位置を予測するため、標準的な物体検出タスクにおいて非常に効果的です。
YOLOv5 最大の強みのひとつYOLOv5 そのよく整備されたYOLOv5 。充実したドキュメント、驚くほどPython 、Ultralytics ネイティブ統合を誇ります。これにより開発者は、データセットのラベリングからトレーニング、そしてONNXやPyTorchなどの形式へのエクスポートまで、シームレスに移行できます。 ONNX や TensorRTといった形式へのエクスポートまで、シームレスに移行できます。
エコシステムの利点
Ultralytics YOLO 、複雑なトランスフォーマーベースの代替モデルと比較して、トレーニング中に必要とするGPU 大幅に少ないのが一般的です。この低いメモリ使用量により、YOLOv5 コンシューマーグレードのハードウェアを使用する研究者にとってYOLOv5 利用しやすくなっています。
Megvii YOLOX
- 著者: Zheng Ge、Songtao Liu、Feng Wang、Zeming Li、Jian Sun
- 組織:Megvii
- 日付: 2021-07-18
- Arxiv:YOLOX: 2021年にYOLOシリーズを超える
- GitHub:Megvii YOLOX リポジトリ
- ドキュメント:YOLOX ReadTheDocs
Megviiの研究者によって開発されたYOLOXは、YOLO アンカーボックスを必要としない設計を導入することで新たな道を切り開いた。アンカーボックスを排除することで、YOLOXは検出ヘッドを簡素化し、トレーニング中に手動で調整が必要なヒューリスティックパラメータの数を大幅に削減する。
YOLOXはまた、分類と回帰タスクを異なるネットワーク分岐に分離するデカップリングヘッドを採用し、SimOTAラベル割り当て戦略を活用している。これらの革新は学術研究と産業応用との隔たりを埋め、YOLOXを特に物体のスケールが高度に多様化する環境において効果的にしている。
パフォーマンスとメトリクス
コンピュータビジョンモデルを評価する際、平均精度(mAP)と推論速度のトレードオフが極めて重要である。両モデルとも、異なるハードウェア制約に対応するため、NanoからExtra-Largeまでのサイズ範囲を提供している。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLOXnano | 416 | 25.8 | - | - | 0.91 | 1.08 |
| YOLOXtiny | 416 | 32.8 | - | - | 5.06 | 6.45 |
| YOLOXs | 640 | 40.5 | - | 2.56 | 9.0 | 26.8 |
| YOLOXm | 640 | 46.9 | - | 5.43 | 25.3 | 73.8 |
| YOLOXl | 640 | 49.7 | - | 9.04 | 54.2 | 155.6 |
| YOLOXx | 640 | 51.1 | - | 16.1 | 99.1 | 281.9 |
YOLOv5はピーク精度がわずかに高い(51.1mAP)一方、YOLOv5 CPU GPU 全体でより堅牢かつ徹底的にテストされたデプロイメントパイプラインYOLOv5 。YOLOv5 TensorRT 、エッジコンピューティングデバイス向けの深い最適化をYOLOv5 、リアルタイム動画解析において非常に信頼性の高い選択肢となっています。
トレーニング方法論とユーザビリティ
これらの2つのアーキテクチャ間では、開発者体験が大きく異なります。
YOLOXアプローチ
YOLOXのトレーニングには通常、元のリポジトリのクローン作成、特定の依存関係の管理、複雑なコマンドラインスクリプトの実行が必要です。MegEngineを介した混合精度トレーニングやマルチノード設定といった高度な機能をサポートしている一方で、迅速なプロトタイピングを必要とする開発者にとっては学習曲線が急峻となる可能性があります。
Ultralyticsの利点
対照的に、Ultralytics 極めて合理化されたユーザー体験をUltralytics 。 ultralytics Python 、開発者は最小限の定型コードでモデルの読み込み、トレーニング、検証を実行できます。Ultralytics 複雑なデータ拡張、ハイパーパラメータ進化、学習率スケジューリングUltralytics 処理します。
from ultralytics import YOLO
# Load a pretrained YOLOv5 small model
model = YOLO("yolov5s.pt")
# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Validate the model's performance
metrics = model.val()
さらに、YOLOv5標準的な物体検出を超えており、まったく同じ一貫性のあるAPI内で画像分類と インスタンスセグメンテーション に対する堅牢なサポートを提供します。
合理化されたデプロイメント
トレーニングが完了したら、YOLOv5 をCoreML、TFLite、OpenVINO にエクスポートするのは、実行するだけでOpenVINO model.export(format="onnx")これにより、研究目的のリポジトリで一般的に必要とされるサードパーティ製変換スクリプトが不要になります。
現実世界のアプリケーション
これらのモデル間の選択は、導入環境と技術要件によって異なります:
- 小売および在庫管理: NVIDIA などのエッジデバイス上でリアルタイム製品認識を必要とするアプリケーション向けに、 YOLOv5 が極めて適しています。最小限のメモリ使用量と高速なTensorRT 速度により、フレーム落ちなしでのマルチカメラ追跡を実現します。
- 学術研究とカスタムアーキテクチャ:YOLOXは研究コミュニティで高く評価されています。その分離されたヘッドとアンカーフリーの性質により、新規ラベル割り当て戦略の実験を目指すエンジニアや、従来のアンカーボックスが汎化に失敗するデータセットに取り組むエンジニアにとって優れたベースラインとなります。
- 農業用AI:ドローンによる果実検出や雑草識別といった精密農業タスクにおいて、Ultralytics を用いたYOLOv5 容易なトレーニングとデプロイにより、専門知識を持つ担当者が深い機械学習エンジニアリングの背景知識を必要とせずにAIソリューションを実装できます。
ユースケースと推奨事項
YOLOv5 具体的なプロジェクト要件、デプロイメント上の制約、およびエコシステム上の好みに依存します。
YOLOv5を選択すべき時
YOLOv5 以下に最適YOLOv5 :
- 実績ある生産システム: YOLOv5 track 、豊富なドキュメント、大規模なコミュニティサポートが評価される既存の展開環境。
- リソース制約下でのトレーニング: GPU 限られた環境において、YOLOv5効率的なトレーニングパイプラインと低いメモリ要件が有利に働く。
- 幅広いエクスポート形式のサポート:複数の形式での展開を必要とするプロジェクトに対応 ONNX、 TensorRT、 CoreML、および TFLite。
YOLOXを選択すべき時
YOLOXは以下の方におすすめです:
- アンカーフリー検出研究:YOLOXのクリーンなアンカーフリーアーキテクチャをベースラインとして、新たな検出ヘッドや損失関数の実験を行う学術研究。
- 超軽量エッジデバイス:マイクロコントローラーやレガシーモバイルハードウェアへの展開において、YOLOX-Nanoモデルの極めて小さなフットプリント(0.91Mパラメータ)が極めて重要となる。
- SimOTAラベル割り当て研究:最適輸送に基づくラベル割り当て戦略と、それが学習収束に与える影響を調査する研究プロジェクト。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics パフォーマンスと開発者体験の最適な組み合わせを提供します:
- NMSデプロイメント:ノンマキシマムサプレッション(NMS)後処理の複雑さを伴わずに、一貫した低遅延推論を必要とするアプリケーション。
- CPU: GPU を持たないデバイスにおいて、YOLO26のCPU 決定的な優位性を提供する。
- 小型物体検出: ドローン航空写真やIoTセンサー解析といった困難なシナリオにおいて、ProgLossとSTALが微小物体の精度を大幅に向上させる。
ビジョンAIの未来:YOLO26の登場
YOLOv5 はいずれもコンピュータビジョン史に確固たる地位を築いたが、この分野は急速に進歩している。新規プロジェクトを開始する開発者には、Ultralytics 最新フラッグシップモデルであるYOLO26の検討をUltralytics 推奨する。
2026年1月にリリースされたYOLO26は、性能と使いやすさの両面で飛躍的な進化を遂げました。画期的なNMSを採用し、非最大抑制(NMS)の後処理を完全に排除。これにより遅延変動が大幅に低減され、低電力デバイス上での展開ロジックが簡素化されました。
さらに、YOLO26はLLMトレーニングの革新に着想を得たSGD ミューオンのハイブリッドである新規のMuSGDオプティマイザーを採用し、驚異的な安定性と高速な収束を実現しています。DFL除去(簡素化されたエクスポートとエッジ/低電力デバイスとの互換性向上のため、分布焦点損失を除去)により、YOLO26 CPU 最大43%高速化し、現代のエッジコンピューティング、ロボティクス、IoTアプリケーションにおける究極のモデルとしての地位を確固たるものにしています。さらに、ProgLoss + STALは損失関数を改善し、IoT、ロボティクス、航空画像において重要な小規模物体認識において顕著な向上をもたらします。 旧世代モデルに関心のあるユーザーは以下も参照可能 YOLO11も参照可能ですが、YOLO26が間違いなく最先端の選択肢です。
結論
YOLOv5 OLOXYOLOv5 どちらも驚異的な物体検出能力を提供します。YOLOXは2021年、アンカーフリー設計が従来手法と競合しそれを凌駕し得ることを実証することで、アーキテクチャの限界を押し広げました。しかし、 YOLOv5 は、比類のない使いやすさ、広範なエコシステム、そしてトレーニング時の低いメモリ要件により、依然として支配的な存在です。
商業用途の大半において、Ultralytics は生データセットから本番環境モデルへの展開までを最速で実現します。実績あるYOLOv5 を活用YOLOv5 最先端のYOLO26へアップグレードYOLOv5 開発者はビジョンAIをアクセスしやすく、効率的で、高性能に設計されたフレームワークの恩恵を受けられます。