コンテンツにスキップ

YOLO11 YOLOv7: 詳細な技術比較

コンピュータビジョンの分野は急速な進化を続けており、リアルタイム物体検出はAIアプリケーションの最前線に位置し続けています。プロジェクトに適したアーキテクチャを選択するには、速度、精度、導入の容易さという複雑なトレードオフを慎重に検討する必要があります。本ガイドでは、二つの主要なアーキテクチャを包括的に技術比較します: Ultralytics YOLO11YOLOv7について包括的な技術比較を行います。

モデルの背景と技術的詳細

両モデルは深層学習コミュニティに大きな影響を与えたが、それらは異なる開発哲学と時代に由来している。

YOLO11 :
著者: Glenn Jocher と Jing Qiu
組織: Ultralytics
日付: 2024-09-27
GitHub:ultralytics
ドキュメント:yolo11

YOLO11の詳細について。

YOLOv7 :
著者: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
所属機関:中央研究院 情報科学研究所 (台湾)
日付: 2022-07-06
Arxiv:https://arxiv.org/abs/2207.02696
GitHub:https://github.com/WongKinYiu/yolov7
ドキュメント:ultralytics

YOLOv7について詳しくはこちら

アーキテクチャの違い

内部機構を分析すると、両検出器とも最先端の概念を採用しているが、その構造的基盤は異なる。

YOLOv7 拡張効率的層集約ネットワーク(E-ELAN)の概念YOLOv7 。このアーキテクチャは、元の勾配経路を破壊することなくネットワークの学習能力を継続的に強化するよう設計されており、研究論文で報告された重要なブレークスルーである。YOLOv7 学習中に構造の再パラメータ化と堅牢な「bag-of-freebies」手法をYOLOv7 、推論コストを増加COCO における総合精度を向上させている。

対照的に、YOLO11 高度にUltralytics YOLO11 。より洗練された特徴抽出パイプラインを重視し、パラメータ数を削減することで、トレーニング時のメモリ使用量を低減しています。YOLO11 、より少ない計算リソース(FLOPs)を活用しながら、より重いモデルの検出精度に匹敵またはそれを超えることで、非常に優れた性能バランスYOLO11 。さらに、YOLO11 多様なタスクをサポートしており、現代のコンピュータビジョンアプリケーションにおいて非常に汎用性の高い選択肢となっています。

メモリ効率

YOLO 特筆すべき特徴の一つは、他の最先端モデルと比較してトレーニング時のメモリ要件が低い点であり、これにより開発者はコンシューマーグレードのハードウェア上で強力なネットワークをトレーニングできます PyTorch ハードウェア上で強力なネットワークをトレーニングできる点です。

パフォーマンスとメトリクスの比較

実世界の実用性を正確に評価するには、平均精度(mAP)、推論速度、モデルパラメータ、計算複雑度(FLOPs)などの指標を評価することが不可欠である。以下の表は、YOLO11 バリエーションがよりYOLOv7 どのように比較されるかを示している。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

観察されたように、YOLO11xのようなモデルは、 mAP . mAP mAP mAPを達成しつつ、大幅に少ないパラメータ(56.9M対71.3M)を利用している。YOLO11効率性を示している。

トレーニング効率とエコシステムの実用性

これら二つのアーキテクチャを分かつ最も特徴的な要素の一つは、開発者体験とそれを取り巻くエコシステムである。

YOLOv7 は基本的に学術研究リポジトリです。モデルのトレーニングには、複雑な環境設定、依存関係の手動管理、長いコマンドライン引数の使用がしばしば必要となります。最先端の実験をサポートする一方で、YOLOv7 のコードをカスタムの運用環境に適応させるには時間がかかる場合があります。

YOLO11 使いやすさを完全に再定義します。包括的で適切に管理されたUltralytics 完全に統合されており、シームレスなエンドツーエンドのワークフローを提供します。データアノテーションやローカルトレーニングからデプロイメントまで、統一Python シンプルなコマンドラインインターフェースがプロセス全体を効率化します。

コード比較

YOLO11 を用いた物体検出モデルのトレーニングはわずか数行のコードYOLO11 、参入障壁を大幅に低減します:

from ultralytics import YOLO

# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")

# Train the model effortlessly using the unified API
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Quickly export to ONNX format
model.export(format="onnx")

対照的に、YOLOv7 コマンドは以下のような形式であり、パス、設定ファイル、bash の入念な設定が必要となる:

python train.py --workers 8 --device 0 --batch-size 32 --data data/coco.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights 'yolov7_training.pt'

YOLO11 非常に高い汎用性を提供します。YOLOv7 物体検出以外のタスク(姿勢推定やセグメンテーションなど)をサポートするには全く異なるコードベースや大幅な修正YOLOv7 に対し、YOLO11 単一の統合されたフレームワークを通じて、物体検出インスタンスセグメンテーション画像分類姿勢推定およびオリエンテッドバウンディングボックス(OBB)検出YOLO11

輸出が簡単になる

YOLO11 TensorRTOpenVINO へのエクスポートは単一のコマンドで実行可能であり、従来モデルで発生しがちな演算子サポートの問題を軽減します。

実世界での応用例と理想的な使用事例

YOLOv7 YOLO11 の選択は、プロジェクトの範囲とデプロイメントの制約に完全にYOLO11 。

YOLOv7を検討すべきタイミング:

  • レガシーモデルのベンチマーク:勾配経路設計を研究する学術研究者は、YOLOv7 用いて、より新しい畳み込みニューラルネットワークを評価することがある。
  • 既存のカスタムパイプライン: YOLOv7独自のバウンディングボックスデコードロジックを基盤に構築された、高度にカスタマイズされたC++またはCUDA 備えたチーム。

YOLO11を選択すべき場合:

  • 商用生産: スマート小売医療診断分野での応用は、YOLO11維持されたコードベースと高い安定性から大きな恩恵を受けています。
  • リソース制約環境:YOLO11nの軽量なフットプリントは、ONNXを介したモバイルおよびエッジデバイスへの展開に特に適しています。 ONNXを介したモバイルおよびエッジデバイスへの展開に極めて適しています。
  • マルチタスクプロジェクト:単一のアプリケーションが人物の識別、姿勢の推定、segment 必要とする場合、YOLO11 統合ソリューションYOLO11 。

最先端技術:YOLO26で前進する

YOLO11 は非常に堅牢な選択肢としてYOLO11 、人工知能の革新は決して止まりません。今日新たなプロジェクトを始めるエンジニアにとって、 Ultralytics を強く推奨します。

2026年1月にリリースされたYOLO26は、エンドツーエンドNMS設計を導入し、非最大抑制(NMS)後処理に伴うレイテンシのボトルネックを完全に解消しました。 さらにYOLO26は、LLMトレーニング手法に着想を得た革新的なMuSGDオプティマイザーを組み込み、収束速度の向上を実現。ProgLoss + STALによる損失関数の最適化とDFL除去による最大43%高速化CPU 、エッジコンピューティング向けに特化して最適化され、現在のビジョンAIの頂点を代表する存在です。

YOLO26についてさらに詳しく

特殊な代替構造に関心のあるユーザーは、トランスフォーマーベースの RT-DETR や動的オープンボキャブラリYOLOモデルを調査することも、多様なコンピュータビジョン展開において有益な結果をもたらす可能性があります。


コメント