コンテンツにスキップ

YOLO11 .YOLOv8: リアルタイム物体検出の進化

YOLO You Only Look Once)アーキテクチャの進化は、一貫してコンピュータビジョンの境界を再定義してきた。 YOLO11は、2024年末にリリースされ、 YOLOv8 が築いた堅固な基盤を基盤とし、効率性と精度の向上を実現しています。本分析では、両モデルのアーキテクチャ上の変化、性能指標、実用的な導入上の考慮事項を探求し、開発者が特定のアプリケーションに最適な選択を行うための指針を提供します。

パフォーマンス指標の概要

以下の表は、様々なモデルYOLOv8 YOLO11 YOLOv8 性能向上を強調しています。YOLO11 、特にCPU 向けに最適化された場合、競争力のある推論速度を維持しながら、YOLO11 高い平均精度(mAP)を提供します。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv8n64037.380.41.473.28.7
YOLOv8s64044.9128.42.6611.228.6
YOLOv8m64050.2234.75.8625.978.9
YOLOv8l64052.9375.29.0643.7165.2
YOLOv8x64053.9479.114.3768.2257.8

アーキテクチャの概要

両モデルとも、Ultralytics に根ざしており、性能を犠牲にすることなく使いやすさを優先しています。しかし、YOLO11 のアーキテクチャ改良YOLO11 、より少ないパラメータでより優れた特徴抽出能力YOLO11 。

YOLO11: 洗練された効率性

著者:Glenn Jocher, Jing Qiu
組織:Ultralytics
日付:2024-09-27
GitHub:ultralytics
ドキュメント:YOLO11

YOLO11 、特徴統合を強化する改良されたバックボーンとネック構造YOLO11 。クロスステージ部分(CSP)ブロックの最適化により、YOLO11 FLOPs(浮動小数点演算数/秒)を大幅にYOLO11 しつつmAP YOLO11 。この効率性により、エッジコンピューティングデバイスなどの制約環境において特に適している。

YOLO11の詳細について。

YOLOv8: 信頼できる標準

著者:Glenn Jocher, Ayush Chaurasia, Jing Qiu
組織:Ultralytics
日付:2023-01-10
GitHub:ultralytics
ドキュメント:YOLOv8

YOLOv8 堅牢で汎用性の高いモデルYOLOv8 。Ultralytics アンカーフリー検出ヘッドを初めて導入し、手動でのアンカーボックス計算を不要とすることでトレーニングプロセスを簡素化しました。農業から製造業まで多様な産業分野でのtrack 証明されており、レガシーシステムにおいても安全かつ信頼性の高い選択肢です。

YOLOv8について詳しくはこちら

アーキテクチャ互換性

YOLO11 YOLOv8 の両方がネイティブでYOLOv8 。 ultralytics Python 。それらの切り替えは、モデル名の文字列を変更するだけで済む場合が多い(例: yolov8n.pt 宛先 yolo11n.ptコード内で、既存の データセット構成 およびトレーニングパイプライン。

Ultralyticsモデルの主な利点

特定のバージョンにかかわらず、Ultralytics を選択することで、他のフレームワークに比べて明確な利点があります。

  1. 整備されたエコシステム:両モデルとも活発な開発とコミュニティのサポートの恩恵を受けています。定期的な更新により、最新版との互換性が確保されています。 PyTorchCUDAバージョンとの互換性を保証し、技術的負債を最小限に抑えます。
  2. メモリ要件: Ultralytics モデルをメモリ効率化するようにUltralytics 。大規模なトランスフォーマーベースの検出器と比較して、YOLO トレーニング中にGPU (VRAM)が大幅に少なく、コンシューマー向けハードウェアを使用する開発者でも利用可能です。
  3. 汎用性:単純なバウンディングボックスを超え、両アーキテクチャはインスタンスセグメンテーション姿勢推定OBB(Oriented Bounding Box)、分類をサポートする。
  4. トレーニング効率:事前学習済み重みが容易に入手可能であり、転移学習を可能にすることで、トレーニング時間とエネルギー消費を大幅に削減します。

実際のユースケース

YOLO11 YOLOv8 の選択は、YOLOv8 、デプロイ環境の具体的な制約によって決まります。

YOLO11 が優れている点

YOLO11 、レイテンシに敏感なエッジアプリケーションに最適な選択肢YOLO11 。パラメータ数の削減と低いFLOPsにより、CPUやモバイルプロセッサ上での推論が高速化されます。

  • スマートリテール:専用GPUなしで店舗サーバー上でリアルタイムの顧客行動分析を実現。
  • ドローン画像処理:バッテリー寿命の1ミリ秒が重要な高解像度空撮映像の処理。改良された微小物体検出機能がここで決定的に重要となる。
  • モバイルアプリ:CoreML経由でのデプロイ CoreML または TFLite によるiOS Android へのデプロイは、軽量なアーキテクチャの恩恵を受けます。

YOLOv8 優位な点

YOLOv8 、一貫性が最も重要視される確立されたワークフローに YOLOv8 。

  • 産業オートメーション: 品質管理 YOLOv8 既にYOLOv8 を標準化している工場では、v8を継続使用することでパイプライン全体の再検証が不要となる。
  • 学術研究:高被引用ベースラインとして、YOLOv8 新たなアーキテクチャの革新性を比較するための優れたYOLOv8 。

使いやすさと導入の容易さ

Ultralytics の特徴の一つは、統一されたAPIです。開発者は同一の構文でいずれのモデルもトレーニング、検証、デプロイできます。

from ultralytics import YOLO

# Load a model (switch 'yolo11n.pt' to 'yolov8n.pt' to use v8)
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on a local image
results = model("path/to/image.jpg")

# Export to ONNX for deployment
path = model.export(format="onnx")

この簡潔さはコマンドラインインターフェース(CLI)にも及んでおり、Pythonコードを1行も書かずに迅速なプロトタイピングを可能にします。

# Train YOLO11n
yolo train model=yolo11n.pt data=coco8.yaml epochs=50 imgsz=640

# Train YOLOv8n
yolo train model=yolov8n.pt data=coco8.yaml epochs=50 imgsz=640

結論

両方 YOLO11YOLOv8 はリアルタイム物体検出技術の頂点を代表する。 YOLOv8 は信頼性と汎用性に優れた主力モデルであり、汎用アプリケーションに最適です。しかし、 YOLO11 は最適化された効率性により限界をさらに押し広げ、新規プロジェクト(特にエッジデバイス向けや、可能な限り高い精度対演算量比を必要とするもの)における推奨される出発点となっています。

パフォーマンスとNMSにおける絶対的な最先端を求める開発者には、新たにリリースされた YOLO26の検討をお勧めします。これは前世代の優れた特性を継承しつつ、エンドツーエンド設計により導入をさらに簡素化したものです。

その他のモデルを見る

  • YOLO26:ニューラルネットワークベースのステージング(NMSMS)NMSのエンドツーエンド検出と、CPU 高速化を実現した最新鋭モデル。
  • RT-DETR:高精度を提供するトランスフォーマーベースのモデル。推論速度よりも精度を重視する場合に最適です。
  • SAM :Metaのセグメント・エニシング・モデル。トレーニングデータが不足しているゼロショットセグメンテーションタスクに最適。

コメント