コンテンツへスキップ

Ultralytics YOLO11

概要

YOLO11は、リアルタイム物体検出器シリーズの最新版です。 UltralyticsYOLO YOLO11は、リアルタイム物体検出器シリーズの最新版で、最先端の精度、スピード、効率で可能なことを再定義します。以前のバージョン(YOLO )の目覚ましい進化をベースに、YOLO11はアーキテクチャとトレーニング方法に大幅な改良を加え、幅広いコンピュータビジョンタスクに対応する汎用的な選択肢となっています。

Ultralytics YOLO11比較プロット



見るんだ: Ultralytics YOLO11を使った物体検出とトラッキング|ベンチマーク方法|YOLO11 RELEASED🚀(英語

主な特徴

  • 強化された特徴抽出:YOLO11は、改良されたバックボーンとネックアーキテクチャを採用し、より正確な物体検出と複雑なタスクのパフォーマンスを実現するための特徴抽出機能を強化しています。
  • 効率とスピードの最適化:YOLO11は、洗練されたアーキテクチャ設計と最適化されたトレーニング・パイプラインを導入し、処理速度の高速化と精度とパフォーマンスの最適なバランスを実現しています。
  • より少ないパラメータでより高い精度:モデル設計の進歩により、YOLO11mはCOCOデータセットにおいて、YOLOv8m より22%少ないパラメータを使用しながら、より高い平均精度(mAP)を達成し、精度を損なうことなく計算効率を向上させました。
  • 環境を超えた適応性:YOLO11は、エッジデバイス、クラウドプラットフォーム、NVIDIA GPUをサポートするシステムなど、さまざまな環境にシームレスに展開でき、最大限の柔軟性を確保します。
  • 幅広いタスクをサポート物体検出、インスタンス分割、画像分類、姿勢推定、指向性物体検出(OBB)など、YOLO11はコンピュータビジョンの多様な課題に対応するように設計されています。

サポートされるタスクとモード

YOLO11 は、YOLOv8 で紹介された汎用性の高いモデル群をベースに、様々なコンピュータビジョンタスクのサポートを強化しています:

モデルファイル名タスク推論バリデーショントレーニング輸出
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt検出
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptインスタンスのセグメンテーション
YOLO11-ポーズyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptポーズ/キーポイント
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt指向性検出
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt分類

この表は、YOLO11のモデルバリエーションの概要を示しており、特定のタスクにおける適用可能性と、推論、検証、トレーニング、エクスポートなどの動作モードとの互換性を示しています。この柔軟性により、YOLO11は、リアルタイムの検出から複雑なセグメンテーションタスクまで、コンピュータビジョンの幅広いアプリケーションに適しています。

パフォーマンス指標

パフォーマンス

80の訓練済みクラスを含むCOCO上で訓練されたこれらのモデルの使用例については、Detection Docsを参照してください。

モデルサイズ
(ピクセル)
mAPval
50-95
速度
CPU ONNX
(ms
)
スピード
T4TensorRT10
(ms)
params
(M)
フロップス
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

COCOで訓練されたこれらのモデルの使用例については、Segmentation Docsを参照してください。

モデルサイズ
(ピクセル)
mAPbox
50-95
mAPmask
50-95
速度
CPU ONNX
(ms
)
スピード
T4TensorRT10
(ms)
params
(M)
フロップス
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.910.4
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.135.5
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4123.3
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6142.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1319.0

ImageNetで訓練されたこれらのモデルの使用例については、Classification Docsを参照してください。

モデルサイズ
(ピクセル)
acc
top1
acc
top5
速度
CPU ONNX
(ms
)
スピード
T4TensorRT10
(ms)
params
(M)
フロップス
(B) 640にて
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.01.63.3
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.05.512.1
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.010.439.3
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.012.949.4
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.028.4110.4

COCOで訓練されたこれらのモデルの使用例については、Pose Estimation Docsを参照してください。

モデルサイズ
(ピクセル)
mAPpose
50-95
mAPpose
50
速度
CPU ONNX
(ms
)
スピード
T4TensorRT10
(ms)
params
(M)
フロップス
(B)
YOLO11n-ポーズ64050.081.052.4 ± 0.51.7 ± 0.02.97.6
YOLO11sポーズ64058.986.390.5 ± 0.62.6 ± 0.09.923.2
YOLO11mポーズ64064.989.4187.3 ± 0.84.9 ± 0.120.971.7
YOLO11l-ポーズ64066.189.9247.7 ± 1.16.4 ± 0.126.290.7
YOLO11xポーズ64069.591.1488.0 ± 13.912.1 ± 0.258.8203.3

DOTAv1で訓練されたこれらのモデルの使用例については、Oriented Detection Docsを参照のこと。

モデルサイズ
(ピクセル)
mAPtest
50
速度
CPU ONNX
(ms
)
スピード
T4TensorRT10
(ms)
params
(M)
フロップス
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.717.2
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.5
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9183.5
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.2232.0
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8520.2

使用例

このセクションでは、簡単なYOLO11のトレーニングと推論の例を示します。これらのモードや他のモードに関する完全なドキュメントは、Predict,Train,Val,Exportdocsページを参照してください。

以下の例は、YOLO11Detectモデルによる物体検出であることに注意してください。その他のサポートされるタスクについては、SegmentClassifyOBBPoseのドキュメントを参照してください。

PyTorch じゅくれんした *.pt モデルおよび構成 *.yaml ファイルに渡すことができる。 YOLO() クラスを使用して、Python にモデルのインスタンスを作成します:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI コマンドでモデルを直接実行できる:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

引用と謝辞

Ultralytics YOLO11出版

Ultralytics は、モデルが急速に進化しているため、YOLO11に関する正式な研究論文を発表していない。私たちは、静的な文書を作成するよりも、技術を進歩させ、使いやすくすることに重点を置いています。YOLO のアーキテクチャ、機能、使用方法に関する最新情報については、GitHub リポジトリと ドキュメントを参照してください。

YOLO11またはこのリポジトリにある他のソフトウェアをあなたの仕事で使用する場合は、以下のフォーマットで引用してください:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

なお、DOIは申請中であり、利用可能になり次第、引用に追加される。YOLO11モデルは AGPL-3.0およびEnterpriseライセンスで提供されています。

よくあるご質問

Ultralytics YOLO11では、以前のバージョンと比べてどのような点が改善されましたか?

Ultralytics YOLO11では、前作からいくつかの大幅な改良が加えられている。主な改良点は以下の通り:

  • 強化された特徴抽出:YOLO11は、改良されたバックボーンとネックアーキテクチャを採用し、より正確な物体検出のための特徴抽出機能を強化しています。
  • 最適化された効率とスピード:洗練されたアーキテクチャ設計と最適化されたトレーニングパイプラインにより、精度とパフォーマンスのバランスを保ちながら、より高速な処理を実現します。
  • より少ないパラメータでより高い精度:YOLO11mは、COCOデータセットにおいて、YOLOv8m より22%少ないパラメータで高い平均精度(mAP)を達成しており、精度を落とすことなく計算効率を高めています。
  • 環境を超えた適応性:YOLO11は、エッジデバイス、クラウドプラットフォーム、NVIDIA GPUをサポートするシステムなど、さまざまな環境に展開できます。
  • 幅広いタスクをサポートYOLO11は、物体検出、インスタンス分割、画像分類、姿勢推定、指向性物体検出(OBB)など、多様なコンピュータビジョンタスクをサポートしています。

物体検出用のYOLO11モデルをトレーニングするには?

物体検出のためのYOLO11モデルのトレーニングは、Python またはCLI コマンドを使って行うことができる。以下は、両方の方法の例です:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

より詳細な手順については、Trainのドキュメントを参照してください。

YOLO11モデルはどのような仕事ができるのですか?

YOLO11モデルは汎用性が高く、以下のような幅広いコンピュータビジョンタスクをサポートしている:

  • 物体検出:画像内のオブジェクトを識別し、位置を特定する。
  • インスタンス分割:オブジェクトを検出し、その境界を画定する。
  • 画像の分類画像をあらかじめ定義されたクラスに分類すること。
  • 姿勢推定:人体のキーポイントを検出し、追跡する。
  • オリエンテッドオブジェクト検出(OBB):回転する物体を高精度に検出。

各タスクの詳細については、DetectionInstance SegmentationClassificationPose EstimationOriented Detectionのドキュメントを参照。

YOLO11はどのようにして、より少ないパラメーターでより高い精度を実現しているのか?

YOLO11は、モデル設計と最適化技術の進歩により、より少ないパラメータでより高い精度を達成している。改良されたアーキテクチャは、効率的な特徴抽出と処理を可能にし、その結果、COCOのようなデータセットにおいて、YOLOv8m より22%少ないパラメータを使用しながら、より高い平均精度(mAP)を実現しました。これにより、YOLO11は、精度を犠牲にすることなく計算効率が向上し、リソースに制約のあるデバイスでの展開に適しています。

YOLO11はエッジデバイスに導入できますか?

はい、YOLO11はエッジデバイスを含む様々な環境に適応できるように設計されています。最適化されたアーキテクチャと効率的な処理能力により、エッジデバイス、クラウドプラットフォーム、NVIDIA GPUをサポートするシステムへの展開に適しています。この柔軟性により、YOLO11は、モバイル機器でのリアルタイム検出からクラウド環境での複雑なセグメンテーションタスクまで、多様なアプリケーションで使用できる。展開オプションの詳細については、エクスポートのドキュメントを参照してください。

📅作成 1ヶ月前 ✏️更新 13日前

コメント