YOLOv8 YOLO11:リアルタイム視覚モデルの包括的な技術比較
コンピュータビジョンの急速な進化は、リアルタイム物体検出フレームワークの継続的な進歩によって大きく推進されてきた。現代の状況を把握する開発者や研究者にとって、精度、速度、リソース効率のバランスを取るには適切なモデルの選択が極めて重要である。この技術比較では、二つの基盤モデルの違いを探る。 Ultralytics エコシステムにおける二つの基盤モデル、 Ultralytics YOLOv8 と Ultralytics YOLO11.
両モデルはUltralyticsアーキテクチャの際立った特徴、すなわち使いやすさ、十分に維持されたエコシステム、そして低メモリ要件での比類ないトレーニング効率を示しています。それらのアーキテクチャ設計、パフォーマンスベンチマーク、および理想的なデプロイメントシナリオについて深く掘り下げてみましょう。
モデルの概要
それらの具体的な技術的利点を比較する前に、両モデルの起源と主要な仕様を確立することが役立ちます。
Ultralytics YOLOv8
2023年初頭に画期的な進歩として発表YOLOv8 、アンカーフリー検出と損失関数の大幅な改善YOLOv8 、多様な機械学習タスクにおけるゴールドスタンダードとして急速に定着した。
- 著者: Glenn Jocher、Ayush Chaurasia、Jing Qiu
- 組織:Ultralytics
- 日付: 2023-01-10
- GitHub:ultralytics/ultralytics
Ultralytics YOLO11
その前身モデルの成功を基盤とし、YOLO11は、コアアーキテクチャを洗練させ、精度とレイテンシのパレートフロンティアをさらに押し広げ、予測能力を犠牲にすることなく高度に最適化されたパラメータ数を導入しました。
- 著者: Glenn Jocher、Jing Qiu
- 組織:Ultralytics
- 日付: 2024-09-27
- GitHub:ultralytics/ultralytics
その他のアーキテクチャ
代替アプローチを検討されている場合、Ultralytics 以下のようなトランスフォーマーベースのモデルUltralytics サポートしています RT-DETRYOLOゼロショットのオープンボキャブラリ検出器など、トランスフォーマーベースのモデルもサポートしています。ただし、最適なレイテンシとメモリ効率を実現するには、標準的なYOLO 依然として推奨される選択肢です。
アーキテクチャと方法論の違い
YOLOv8 YOLO11 移行は、完全な刷新ではなく、ニューラルネットワーク設計における慎重な進化YOLO11 、モデル周辺の整備されたエコシステムが安定性を維持することを保証している。
バックボーンとネックの最適化
YOLOv8 従来のアンカーボックスから脱却した合理化されたCNNバックボーンYOLOv8 、物体検出を純粋な中心点予測問題として扱った。このアンカーフリー手法により、境界ボックス回帰の複雑さが大幅に軽減された。YOLO11 はこの基盤YOLO11 、最適化された特徴ピラミッドネットワーク(FPN)を導入するとともに、C2fブロックをC3k2モジュールへ改良した。この改良YOLO11 より豊富な空間特徴YOLO11 抽出YOLO11 、COCO に典型的に見られる小型物体に対する精度向上につながった。
メモリ要件とトレーニング効率
YOLOv8 YOLO11 最も顕著な利点の一つは、トレーニング時のメモリ要件が低い YOLO11 コンシューマー向けハードウェアのVRAMを容易に枯渇させる重いビジョン・トランスフォーマーとは異なり、これらのモデルはアクセスしやすい環境向けに最適化されています。 PyTorch トレーニング向けに最適化されています。YOLO11 総パラメータ数を大幅にYOLO11 (大型(L)YOLOv8)、同時に平均精度(mAP)を向上させています。これにより、モデルトレーニングのエポック時間が短縮され、カーボンフットプリントも低減されます。
パフォーマンス指標
これらのモデルの性能バランスを真に評価するには、客観的なベンチマークを検討する必要があります。以下の表は、標準的なスケーリングバリエーション(nanoからextra-large)YOLO11 。
| モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 T4 TensorRT10 (ms) | params (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv8n | 640 | 37.3 | 80.4 | 1.47 | 3.2 | 8.7 |
| YOLOv8s | 640 | 44.9 | 128.4 | 2.66 | 11.2 | 28.6 |
| YOLOv8m | 640 | 50.2 | 234.7 | 5.86 | 25.9 | 78.9 |
| YOLOv8l | 640 | 52.9 | 375.2 | 9.06 | 43.7 | 165.2 |
| YOLOv8x | 640 | 53.9 | 479.1 | 14.37 | 68.2 | 257.8 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
示されているように、YOLO11はYOLOv8よりも少ないパラメータとFLOPsで、精度において一貫して優れています。ONNX Runtimeを使用して測定されたCPU推論速度は、エッジ展開におけるYOLO11の優れた効率性を際立たせています。NVIDIA TensorRTにエクスポートすると、両モデルは実世界のビデオストリーム分析に不可欠な、15ms未満の優れた低遅延を実現します。
エコシステムと使いやすさ
両方のモデルは、統一された ultralytics Python 。この 使いやすさ エンジニアがYOLOv8とYOLO11の間でシームレスに切り替えることを可能にします。学習、検証、およびエクスポートは、わずか数行のコードで実現できます。
from ultralytics import YOLO
# Load a pre-trained YOLO11 model (you can simply swap to "yolov8n.pt")
model = YOLO("yolo11n.pt")
# Train the model efficiently on a local dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)
# Export the optimized model to ONNX
model.export(format="onnx")
シームレスな統合はUltralytics にも及び、高度なDevOps知識を必要とせずにクラウドベースのトレーニング、モデルの監視、デプロイを簡素化します。
汎用性と実世界での応用
Ultralyticsフレームワークの主要な特徴は、その本質的な汎用性です。YOLOv8とYOLO11はどちらも、標準的な物体 detect 以外の幅広いコンピュータービジョンタスクをサポートしています。
- インスタンスセグメンテーション: 医療画像処理や自動運転に有用な、高精度なピクセルレベルのマスク。
- Pose Estimation: スポーツ分析やヒューマンコンピューターインタラクション向けに特化したキーポイント検出です。
- 画像分類: ImageNetで学習されたバックボーンを利用した軽量な分類。
- Oriented Bounding Boxes (OBB): 衛星画像における回転したオブジェクトの識別には不可欠です。
YOLOv8より長い期間提供されているため、膨大なコミュニティチュートリアルリポジトリと厳密にテストされた企業向けデプロイ実績を誇ります。YOLOv8 tensor 厳密に要求するレガシーパイプラインとの統合が必要な場合、依然として非常に信頼性の高い選択肢です。しかし、ラズベリーパイのような組み込みエッジデバイスへのデプロイなど、最大限の効率を優先する新規プロジェクトにおいては、YOLO11 優れた速度対パラメータ比により、運用面での明確な勝者YOLO11 。
ユースケースと推奨事項
YOLOv8とYOLO11のどちらを選択するかは、特定のプロジェクト要件、デプロイの制約、およびエコシステムの好みによって異なります。
YOLOv8を選択すべき時
YOLOv8 以下に最適な選択肢YOLOv8 :
- 多様なマルチタスク展開: Ultralyticsエコシステム内で、detect、セグメンテーション、分類、姿勢推定の実績あるモデルを必要とするプロジェクト向け。
- 確立された本番システム: 安定した十分にテストされたデプロイメントパイプラインを備え、YOLOv8アーキテクチャ上に既に構築されている既存の本番環境。
- 広範なコミュニティとエコシステムサポート: YOLOv8の豊富なチュートリアル、サードパーティ統合、および活発なコミュニティリソースから恩恵を受けるアプリケーション。
YOLO11を選択すべき時
YOLO11 以下に推奨YOLO11 :
- 本番エッジデプロイ: Raspberry PiやNVIDIA Jetsonのようなデバイス上での商用アプリケーションにおいて、信頼性と継続的なメンテナンスが最重要となります。
- マルチタスクビジョンアプリケーション: 単一の統合フレームワーク内で、detect、segment、姿勢推定、およびOBBを必要とするプロジェクト。
- 迅速なプロトタイピングとデプロイ: 合理化されたUltralytics Python APIを使用して、データ収集から本番環境へ迅速に移行する必要があるチーム向け。
Ultralytics YOLO26)を選択すべきタイミング
ほとんどの新規プロジェクトにおいて、Ultralytics YOLO26は、パフォーマンスと開発者エクスペリエンスの最高の組み合わせを提供します。
- NMSフリーのエッジデプロイメント: Non-Maximum Suppressionの後処理の複雑さなしに、一貫した低レイテンシ推論を必要とするアプリケーション。
- CPUのみの環境: 専用のGPUアクセラレーションを持たないデバイスにおいて、YOLO26の最大43%高速なCPU推論が決定的な優位性をもたらします。
- 小物体detect: 航空ドローン画像やIoTセンサー分析のような困難なシナリオにおいて、ProgLossとSTALが微小なオブジェクトのAPを大幅に向上させます。
最先端技術:YOLO26の優位性
YOLOv8 YOLO11 驚異的なアーキYOLO11 、AIの進化は止まることを知らない。2026年に究極の最先端技術を目指す開発者にとって、Ultralytics 次の画期的な飛躍を体現する存在である。
YOLO26はデプロイメントパイプラインを根本的に再構築した。YOLOv10初めて導入された画期的な手法である「 NMS設計」を採用し、複雑な後処理ステップを排除。さらにDFL除去(分布焦点損失)によりロジックのエクスポートが大幅に簡素化され、低電力エッジデバイスとの互換性が向上。 CPU 従来比最大43%高速化を実現した。
LLMのトレーニング手法に着想を得たハイブリッド型の新規MuSGDオプティマイザーにより、学習の安定性と収束速度が劇的に向上した。さらにProgLoss + STALといった新たな損失関数設計は、IoTやロボティクスにおける歴史的な課題であった小物体認識能力を大幅に強化する。姿勢推定のためのRLEやセグメンテーションのためのマルチスケールプロトなど、タスク特化型の改良により、YOLO26は比類のない性能を発揮する。
適切なモデルの選択
旅を始めよう YOLOv8 広範なレガシーコミュニティサポートが必要な場合。 YOLO11 で高度に洗練された速度とパラメータ削減のバランスを実現。究極のエッジ最適化、NMS未来型アーキテクチャを求めるならYOLO26へ飛躍せよ。
結論
YOLOv8とYOLO11のどちらを選択するかは、最終的にプロジェクトのタイムラインとハードウェアの制約に帰着します。YOLOv8は業界で実績のある巨人であり、比類のない安定性を提供します。対照的に、YOLO11はそのアーキテクチャを洗練し、より少ないパラメータでより高いmAPを実現することで、リソースが限られたエッジアプリケーションにとって非常に魅力的です。どちらを選択するにしても、シームレスなUltralytics Python APIにより、開発ワークフローはアジャイルで効率的、かつ完全にサポートされます。そして、エッジデバイスで可能なことの限界を押し広げる準備ができたとき、YOLO26が待機しています。