YOLO11 .YOLOv5: リアルタイム物体検出の進化
YOLO You Only Look Once)ファミリーの進化は、コンピュータビジョンにおける急速な革新のタイムラインを表している。 YOLOv5は、2020年にUltralyticsリリースされ、驚くほど使いやすいAPIと堅牢なPyTorch を通じて高性能な物体検出を可能にすることで、この分野に革命をもたらしました。時は2024年後半に飛び、 YOLO11 は洗練された強力なモデルとして登場し、長年のフィードバックとアーキテクチャの進歩を基盤に、優れた効率性と精度を実現している。
この比較では、これら2つの象徴的なモデル間で達成された技術的進歩を探り、開発者がレガシーシステムを維持すべき時と最新アーキテクチャへアップグレードすべき時を理解する手助けをします。
パフォーマンスメトリクス分析
YOLOv5 YOLO11 飛躍は、標準ベンチマークにおける性能比較によって最もYOLO11 。YOLO11 大幅な最適化YOLO11 、計算負荷を維持または低減しながら、より高い平均精度(mAP)を達成することを可能にしている。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
主なポイント
- 精度向上:YOLO11nは驚異的な39.5%mAPを達成し、YOLOv5n(28.0%mAP)を大幅に上回った。これにより、従来はより大型で低速なモデルを必要とした複雑なタスクにも、最小規模YOLO11 適用可能となった。
- 計算効率:精度が高いにもかかわらず、YOLO11 一般的に必要なFLOPsが少ない。例えば、YOLO11xはYOLOv5xよりも約20%少ないFLOPsで、より優れた検出結果を実現する。
- CPU : YOLO11 CPU ONNX 大幅にYOLO11 、ラズベリーパイのようなエッジデバイスへの展開において重要な要素です。
YOLO11:洗練された効率性と汎用性
2024年9月にリリースYOLO11 、YOLO 反復的な改良のYOLO11 。単なる検出機能だけでなく、セグメンテーション、姿勢推定、方向付きバウンディングボックス(OBB)を含む統合ビジョンパイプラインをサポートするよう設計されている。
技術仕様:
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- リンク:GitHub, ドキュメント
アーキテクチャのハイライト
YOLO11 、勾配の流れを最適化するCross Stage Partial(CSP)ボトルネックの改良版であるC3k2ブロックYOLO11 。 さらに、検出ヘッドにC2PSA(空間的注意機構付きクロスステージ部分)を採用し、雑然としたシーンにおける重要特徴への注目能力を強化。YOLOv5異なり、アンカーボックス不要のアーキテクチャYOLO11 、特定データセット向けのアンカーボックス計算が不要となり、学習プロセスが簡素化されることで汎化性能が向上する。
YOLO11 を選ぶ理由
YOLO11 ほとんどの新規商用アプリケーションに推奨される選択肢YOLO11 。高い精度(mAP)と低いリソース消費量のバランスにより、小売、スマートシティ、医療分野におけるリアルタイム分析に最適です。
YOLOv5:業界標準
2020年半ばにリリースされたYOLOv5、AI業界における使いやすさの基準を確立しました。これは「トレーニング、検証、デプロイ」を単一のリポジトリ内でシームレスに実現した初のモデルであり、Ultralytics 今日Ultralytics ユーザー中心の哲学を確立したのです。
技術仕様:
- 著者: Glenn Jocher
- 組織:Ultralytics
- 日付: 2020-06-26
- リンク:GitHub, ドキュメント
アーキテクチャのハイライト
YOLOv5 はCSPDarknetバックボーン YOLOv5 アンカーベース検出器である。高い効果を発揮する一方で、アンカーベース手法はボックスの寸法に関するハイパーパラメータ調整に敏感になり得る。登場から時間が経過しているにもかかわらず、YOLOv5 信頼性の高い主力ツールYOLOv5 。特に、レガシーハードウェアや特定のソフトウェア認証がプロジェクトを古いフレームワークバージョンに縛り付けるシナリオにおいてその価値を発揮する。
建築上の差異と訓練
エコシステムと使いやすさ
両モデルの最大の強みのひとつは、Ultralytics への統合です。YOLOv5 YOLO11 YOLOv5 、統一されたAPI、充実したドキュメント、TensorRT、CoreML、OpenVINO形式へのシームレスなモデルエクスポートサポートの恩恵を受けられます。
しかし、YOLO11 最新の更新のYOLO11 。 ultralytics Python 、次のようなツールとの緊密な連携を提供します。 Ultralytics Platform クラウドトレーニングおよびデータセット管理のため。
トレーニング効率
YOLO11 改良されたアーキテクチャと損失関数により、YOLO11 トレーニング中の収束が速い。メモリ要件も高度に最適化されている。膨大なVRAMを必要とする大規模なトランスフォーマーモデルとは異なり、YOLO11 YOLOv5)YOLO11 コンシューマー向けGPU上で効率的にトレーニングできる。
Python YOLO11 トレーニングする方法は以下の通りです:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset
# fast, efficient, and low-memory usage
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
汎用性
YOLOv5 ライフサイクルの後半でセグメンテーションと分類をサポートするよう更新YOLOv5 、 YOLO11 はこれらのタスクを最初から念頭に置いて構築されました。プロジェクトで物体検出、インスタンスセグメンテーション、姿勢推定、またはオリエンテッドバウンディングボックス(OBB)間の切り替えが必要な場合、YOLO11 これらすべてのモダリティにおいてより一貫性があり、高性能な体験YOLO11 。
結論:どのモデルを使用すべきか?
今日プロジェクトを始める大多数のユーザーにとって、 YOLO11 が明らかな勝者です。これは「無料の昼食」のような改善をもたらします:複雑さを増すことなく、より高い精度と同等かそれ以上の速度を実現します。YOLOv5 研究やレガシーシステムの維持管理においては優れた基準点YOLOv5 、現代的なアーキテクチャとの純粋な指標対指標の比較では遅れをとっています。
最先端技術:YOLO26
コンピュータビジョン技術における最新鋭の成果(2026年1月時点)をお探しなら、YOLO26を検討すべきです。
YOLO26 YOLO11 基盤をYOLO11 エンドツーエンドNMS設計を導入し、非最大抑制(NMS)後処理を不要にしました。これにより、特にCPUエッジデバイスにおいて、より簡素な導入と高速な推論速度を実現します。MuSGDオプティマイザやProgLossといった革新により、YOLO26は前世代と比較して最大43%高速CPU を提供します。
その他の検討すべきモデル
- RT-DETR: 変圧器ベースの検出器で、リアルタイム速度がそれほど重要でない場合に精度に優れる。
- YOLO: トレーニングデータセットに存在しないdetect する必要があるオープンボキャブラリ検出に最適です。