Ultralytics YOLO11
概要
YOLO11 は UltralyticsYOLO リアルタイム物体検出器シリーズの最新版であり、最先端の精度、スピード、効率で何が可能かを再定義します。以前のバージョン(YOLO )の目覚しい進化をベースに、YOLO11 はアーキテクチャとトレーニング方法に大幅な改良を加え、幅広いコンピュータビジョンタスクに対応する汎用性の高い選択肢となっています。
Ultralytics YOLO11 🚀 Podcast generated by NotebookLM
見るんだ: Ultralytics YOLO11 オブジェクト検出とトラッキングの使い方|ベンチマーク方法|YOLO11 RELEASED🚀
主な特徴
- 強化された特徴抽出: YOLO11 は、改良されたバックボーンとネックアーキテクチャを採用し、より正確な物体検出と複雑なタスクパフォーマンスのための特徴抽出機能を強化しています。
- 効率とスピードの最適化: YOLO11 は、洗練されたアーキテクチャ設計と最適化されたトレーニングパイプラインを導入し、処理速度の高速化と、精度とパフォーマンスの最適なバランスを実現しています。
- より少ないパラメータでより高い精度:モデル設計の進歩により、YOLO11mはCOCOデータセットにおいて、YOLOv8m より22%少ないパラメータを使用しながら、より高い平均精度(mAP)を達成し、精度を損なうことなく計算効率を向上させました。
- 環境を超えた適応性: YOLO11 は、エッジデバイス、クラウドプラットフォーム、NVIDIA GPU をサポートするシステムなど、さまざまな環境にシームレスに展開でき、最大限の柔軟性を確保します。
- 幅広いタスクをサポート:物体検出、インスタンス分割、画像分類、姿勢推定、指向性物体検出(OBB)など、YOLO11 は、コンピュータビジョンの多様な課題に対応するように設計されています。
サポートされるタスクとモード
YOLO11 は、YOLOv8 で紹介された汎用性の高いモデル群をベースに、さまざまなコンピュータビジョンタスクのサポートを強化しています:
モデル | ファイル名 | タスク | 推論 | バリデーション | トレーニング | 輸出 |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
検出 | ✅ | ✅ | ✅ | ✅ |
YOLO11-セグ | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
インスタンスのセグメンテーション | ✅ | ✅ | ✅ | ✅ |
YOLO11-ポーズ | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
ポーズ/キーポイント | ✅ | ✅ | ✅ | ✅ |
YOLO11-オッブ | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
指向性検出 | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls(クルス | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
分類 | ✅ | ✅ | ✅ | ✅ |
この表は、YOLO11 モデルバリアントの概要を示し、特定のタスクにおける適用可能性と、推論、検証、トレーニング、エクスポートなどの動作モードとの互換性を示しています。この柔軟性により、YOLO11 は、リアルタイムの検出から複雑なセグメンテーションタスクまで、コンピュータビジョンの幅広いアプリケーションに適しています。
パフォーマンス指標
パフォーマンス
80の訓練済みクラスを含むCOCO上で訓練されたこれらのモデルの使用例については、Detection Docsを参照してください。
モデル | サイズ (ピクセル) |
mAPval 50-95 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
COCOで訓練されたこれらのモデルの使用例については、Segmentation Docsを参照してください。
モデル | サイズ (ピクセル) |
mAPbox 50-95 |
mAPmask 50-95 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
ImageNetで訓練されたこれらのモデルの使用例については、Classification Docsを参照してください。
モデル | サイズ (ピクセル) |
acc top1 |
acc top5 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) at 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
COCOで訓練されたこれらのモデルの使用例については、Pose Estimation Docsを参照してください。
モデル | サイズ (ピクセル) |
mAPpose 50-95 |
mAPpose 50 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-ポーズ | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11sポーズ | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11mポーズ | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-ポーズ | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11xポーズ | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
DOTAv1で訓練されたこれらのモデルの使用例については、Oriented Detection Docsを参照のこと。
モデル | サイズ (ピクセル) |
mAPtest 50 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
使用例
このセクションでは、単純なYOLO11 トレーニングと推論の例を提供します。これらのモードや他のモードに関する完全なドキュメントは、Predict,Train,Val,Exportdocs ページを参照してください。
以下の例は、YOLO11 Detectモデルによる物体検出のためのものです。その他のサポートされるタスクについては、Segment、Classify、OBB、Poseのドキュメントを参照してください。
例
PyTorch じゅくれんした *.pt
モデルおよび構成 *.yaml
ファイルに渡すことができる。 YOLO()
クラスを使用して、Python にモデルのインスタンスを作成します:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI コマンドでモデルを直接実行できる:
引用と謝辞
Ultralytics YOLO11 出版
Ultralytics は、急速に進化するモデルの性質上、YOLO11 の正式な研究論文を発表していない。私たちは、静的なドキュメントを作成するよりも、技術を進歩させ、使いやすくすることに重点を置いています。YOLO のアーキテクチャ、機能、使用方法に関する最新情報については、GitHub リポジトリと ドキュメントを参照してください。
YOLO11 、またはこのリポジトリにあるその他のソフトウェアをあなたの仕事で使用する場合は、以下のフォーマットで引用してください:
DOIは保留中であり、利用可能になり次第、引用に追加されることにご注意ください。YOLO11 モデルは、以下のライセンスで提供されます。 AGPL-3.0およびEnterpriseライセンスで提供されています。
よくあるご質問
Ultralytics YOLO11 、以前のバージョンと比較して改善された点は?
Ultralytics YOLO11 は、前モデルからいくつかの重要な進歩を導入しています。主な改良点は以下の通り:
- 強化された特徴抽出: YOLO11 は、改良されたバックボーンとネックアーキテクチャを採用し、より正確な物体検出のための特徴抽出機能を強化している。
- 最適化された効率とスピード:洗練されたアーキテクチャ設計と最適化されたトレーニングパイプラインにより、精度とパフォーマンスのバランスを保ちながら、より高速な処理を実現します。
- より少ないパラメータでより高い精度:YOLO11mは、COCOデータセットにおいて、YOLOv8m より22%少ないパラメータで高い平均精度(mAP)を達成しており、精度を落とすことなく計算効率を高めています。
- 環境適応性: YOLO11 は、エッジデバイス、クラウドプラットフォーム、NVIDIA GPU をサポートするシステムなど、さまざまな環境に展開できます。
- 幅広いタスクをサポート: YOLO11 は、物体検出、インスタンス分割、画像分類、姿勢推定、指向性物体検出(OBB)など、多様なコンピュータビジョンタスクをサポートしています。
物体検出のためのYOLO11 モデルの学習方法は?
物体検出のためのYOLO11 モデルのトレーニングは、Python またはCLI コマンドを使って行うことができる。以下は両方の方法の例である:
例
より詳細な手順については、Trainのドキュメントを参照してください。
YOLO11 モデルはどのような仕事をこなせるのか?
YOLO11 モデルは汎用性が高く、以下のような幅広いコンピューター・ビジョン・タスクをサポートしている:
- 物体検出:画像内のオブジェクトを識別し、位置を特定する。
- インスタンス分割:オブジェクトを検出し、その境界を画定する。
- 画像の分類:画像をあらかじめ定義されたクラスに分類すること。
- 姿勢推定:人体のキーポイントを検出し、追跡する。
- オリエンテッドオブジェクト検出(OBB):回転する物体を高精度に検出。
各タスクの詳細については、Detection、Instance Segmentation、Classification、Pose Estimation、Oriented Detectionのドキュメントを参照。
YOLO11 、より少ないパラメーターでより高い精度を達成する方法は?
YOLO11 は、モデル設計と最適化技術の進歩により、より少ないパラメータでより高い精度を達成している。改良されたアーキテクチャは、効率的な特徴抽出と処理を可能にし、COCO のようなデータセットにおいて、YOLOv8m より 22% 少ないパラメータで、より高い平均精度 (mAP) を実現します。これにより、YOLO11 は、精度に妥協することなく計算効率が向上し、リソースに制約のあるデバイスへの展開に適しています。
YOLO11 はエッジ・デバイスに導入可能か?
はい、YOLO11 は、エッジデバイスを含む様々な環境に適応できるように設計されています。最適化されたアーキテクチャと効率的な処理能力により、エッジデバイス、クラウドプラットフォーム、NVIDIA GPUをサポートするシステムへの展開に適しています。この柔軟性により、YOLO11 は、モバイル機器でのリアルタイム検出からクラウド環境での複雑なセグメンテーションタスクまで、多様なアプリケーションで使用することができます。展開オプションの詳細については、エクスポートのドキュメントを参照してください。