Open Image V7でトレーニングされたこれらのモデルの使用例については、Detection Docsを参照してください。
モデル | サイズ (ピクセル) | mAPval 50-95 | 速度 CPU ONNX (ms) | 速度 A100 TensorRT (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 |
YOLOv8s | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 |
YOLOv8m | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 |
YOLOv8l | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 |
YOLOv8x | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 |
COCOで訓練されたこれらのモデルの使用例については、Segmentation Docsを参照してください。
モデル | サイズ (ピクセル) | mAPbox 50-95 | mAPmask 50-95 | 速度 CPU ONNX (ms) | 速度 A100 TensorRT (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-セグ | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-セグ | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-セグ | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-セグ | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-セグ | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
ImageNetで訓練されたこれらのモデルの使用例については、Classification Docsを参照してください。
モデル | サイズ (ピクセル) | acc top1 | acc top5 | 速度 CPU ONNX (ms) | 速度 A100 TensorRT (ms) | params (M) | フロップス (B) 640にて |
---|---|---|---|---|---|---|---|
YOLOv8n-cls(クルス | 224 | 69.0 | 88.3 | 12.9 | 0.31 | 2.7 | 4.3 |
YOLOv8s-cls(クルス | 224 | 73.8 | 91.7 | 23.4 | 0.35 | 6.4 | 13.5 |
YOLOv8m-cls(クルス | 224 | 76.8 | 93.5 | 85.4 | 0.62 | 17.0 | 42.7 |
YOLOv8l-cls(クルス | 224 | 76.8 | 93.5 | 163.0 | 0.87 | 37.5 | 99.7 |
YOLOv8x-cls(クルス | 224 | 79.0 | 94.6 | 232.0 | 1.01 | 57.4 | 154.8 |
COCOで訓練されたこれらのモデルの使用例については、Pose Estimation Docsを参照してください。
モデル | サイズ (ピクセル) | mAPpose 50-95 | mAPpose 50 | 速度 CPU ONNX (ms) | 速度 A100 TensorRT (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-ポーズ | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-ポーズ | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-ポーズ | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-ポーズ | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-ポーズ | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
DOTAv1で訓練されたこれらのモデルの使用例については、Oriented Detection Docsを参照のこと。
モデル | サイズ (ピクセル) | mAPtest 50 | 速度 CPU ONNX (ms) | 速度 A100 TensorRT (ms) | params (M) | フロップス (B) |
---|---|---|---|---|---|---|
YOLOv8n-オッブ | 1024 | 78.0 | 204.77 | 3.57 | 3.1 | 23.3 |
YOLOv8s-オッブ | 1024 | 79.5 | 424.88 | 4.07 | 11.4 | 76.3 |
YOLOv8m-オッブ | 1024 | 80.5 | 763.48 | 7.61 | 26.4 | 208.6 |
YOLOv8l-オッブ | 1024 | 80.7 | 1278.42 | 11.83 | 44.5 | 433.8 |
YOLOv8x-オッブ | 1024 | 81.36 | 1759.10 | 13.23 | 69.5 | 676.7 |
この例では、単純なYOLOv8 トレーニングと推論の例を提供します。これらのモードや他のモードに関する完全なドキュメントはPredict,Train,ValandExportdocs ページを参照してください。
以下の例は、YOLOv8 オブジェクト検出のためのDetectモデルであることに注意してください。その他のサポートされるタスクについては、Segment、Classify、OBBdocs、Posedocsを参照してください。
例
PyTorch じゅくれんした *.pt
モデルおよび構成 *.yaml
ファイルに渡すことができる。 YOLO()
クラスを使用して、python にモデルのインスタンスを作成します:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI コマンドでモデルを直接実行できる:
Ultralytics YOLOv8 出版
Ultralytics は、急速に進化するモデルの性質上、YOLOv8 の正式な研究論文を発表していない。私たちは、静的なドキュメントを作成するよりも、技術を進歩させ、使いやすくすることに重点を置いています。YOLO のアーキテクチャ、機能、使用方法に関する最新情報については、GitHub リポジトリと ドキュメントを参照してください。
YOLOv8 モデル、またはこのリポジトリにある他のソフトウェアをあなたの研究で使用する場合は、以下のフォーマットで引用してください:
DOIは保留中であり、利用可能になり次第、引用に追加されることにご注意ください。YOLOv8 モデルは、以下のライセンスで提供されます。 AGPL-3.0およびEnterpriseライセンスで提供されています。
YOLOv8 は、Ultralytics YOLO シリーズの最新版で、高度な機能によりリアルタイムの物体検出性能を向上させるよう設計されています。以前のバージョンとは異なり、YOLOv8 は、アンカーフリーのスプリット・ヘッド(Ultralytics )、最先端のバックボーンとネック・アーキテクチャを搭載し、精度と速度のトレードオフを最適化することで、多様なアプリケーションに理想的な製品となっています。詳細については、「概要」と「主な特長」をご覧ください。
YOLOv8 は、物体検出、インスタンス分割、ポーズ/キーポイント検出、指向性物体検出、分類など、幅広いコンピュータビジョンタスクをサポートしています。各モデルのバリアントは、特定のタスクに最適化されており、推論、検証、トレーニング、エクスポートなどのさまざまな操作モードに対応しています。詳細については、「サポートされるタスクとモード」のセクションを参照してください。
YOLOv8 モデルは、さまざまなベンチマークデータセットで最先端の性能を達成している。例えば、YOLOv8n モデルでは、COCO データセットで 37.3 の mAP(平均平均精度)、A100TensorRT で 0.99 ms の速度を達成しています。様々なタスクやデータセットにおける各モデルバリアントの詳細なパフォーマンスメトリクスは、パフォーマンスメトリクスのセクションで見ることができます。
YOLOv8 モデルのトレーニングは、Python またはCLI のいずれかを使用して行うことができます。以下は、COCO8 データセット上で、COCO-pretrainedYOLOv8 モデルを使用して、100エポックのモデルをトレーニングする例です:
例
詳細については、トレーニングのドキュメントをご覧ください。
はい、YOLOv8 モデルは、様々なエクスポートフォーマットにおいて、スピードと正確さの観点からパフォーマンスのベンチマークを取ることができます。ベンチマークには、PyTorch 、ONNX 、TensorRT などを使用できます。以下は、Python とCLI を使用したベンチマーク用コマンドの例です:
例
詳しくは、パフォーマンス・メトリクスのセクションをご覧ください。