COCOで訓練されたこれらのモデルの使用例については、Segmentation Docsを参照してください。
モデル | サイズ (ピクセル) | mAPbox 50-95 | mAPmask 50-95 | 速度 CPU ONNX (ms) | スピード T4TensorRT10 (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
ImageNetで訓練されたこれらのモデルの使用例については、Classification Docsを参照してください。
モデル | サイズ (ピクセル) | acc top1 | acc top5 | 速度 CPU ONNX (ms) | スピード T4TensorRT10 (ms) | params (M) | フロップス (B) 640にて |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
COCOで訓練されたこれらのモデルの使用例については、Pose Estimation Docsを参照してください。
モデル | サイズ (ピクセル) | mAPpose 50-95 | mAPpose 50 | 速度 CPU ONNX (ms) | スピード T4TensorRT10 (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|---|
YOLO11n-ポーズ | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11sポーズ | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11mポーズ | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-ポーズ | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11xポーズ | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
DOTAv1で訓練されたこれらのモデルの使用例については、Oriented Detection Docsを参照のこと。
モデル | サイズ (ピクセル) | mAPtest 50 | 速度 CPU ONNX (ms) | スピード T4TensorRT10 (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
このセクションでは、簡単なYOLO11のトレーニングと推論の例を示します。これらのモードや他のモードに関する完全なドキュメントは、Predict,Train,Val,Exportdocsページを参照してください。
以下の例は、YOLO11Detectモデルによる物体検出であることに注意してください。その他のサポートされるタスクについては、Segment、Classify、OBB、Poseのドキュメントを参照してください。
例
PyTorch じゅくれんした *.pt
モデルおよび構成 *.yaml
ファイルに渡すことができる。 YOLO()
クラスを使用して、Python にモデルのインスタンスを作成します:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI コマンドでモデルを直接実行できる:
Ultralytics YOLO11出版
Ultralytics は、モデルが急速に進化しているため、YOLO11に関する正式な研究論文を発表していない。私たちは、静的な文書を作成するよりも、技術を進歩させ、使いやすくすることに重点を置いています。YOLO のアーキテクチャ、機能、使用方法に関する最新情報については、GitHub リポジトリと ドキュメントを参照してください。
YOLO11またはこのリポジトリにある他のソフトウェアをあなたの仕事で使用する場合は、以下のフォーマットで引用してください:
なお、DOIは申請中であり、利用可能になり次第、引用に追加される。YOLO11モデルは AGPL-3.0およびEnterpriseライセンスで提供されています。
Ultralytics YOLO11では、前作からいくつかの大幅な改良が加えられている。主な改良点は以下の通り:
物体検出のためのYOLO11モデルのトレーニングは、Python またはCLI コマンドを使って行うことができる。以下は、両方の方法の例です:
例
より詳細な手順については、Trainのドキュメントを参照してください。
YOLO11モデルは汎用性が高く、以下のような幅広いコンピュータビジョンタスクをサポートしている:
各タスクの詳細については、Detection、Instance Segmentation、Classification、Pose Estimation、Oriented Detectionのドキュメントを参照。
YOLO11は、モデル設計と最適化技術の進歩により、より少ないパラメータでより高い精度を達成している。改良されたアーキテクチャは、効率的な特徴抽出と処理を可能にし、その結果、COCOのようなデータセットにおいて、YOLOv8m より22%少ないパラメータを使用しながら、より高い平均精度(mAP)を実現しました。これにより、YOLO11は、精度を犠牲にすることなく計算効率が向上し、リソースに制約のあるデバイスでの展開に適しています。
はい、YOLO11はエッジデバイスを含む様々な環境に適応できるように設計されています。最適化されたアーキテクチャと効率的な処理能力により、エッジデバイス、クラウドプラットフォーム、NVIDIA GPUをサポートするシステムへの展開に適しています。この柔軟性により、YOLO11は、モバイル機器でのリアルタイム検出からクラウド環境での複雑なセグメンテーションタスクまで、多様なアプリケーションで使用できる。展開オプションの詳細については、エクスポートのドキュメントを参照してください。