コンテンツへスキップ

インスタンスのセグメンテーション

インスタンス分割の例

インスタンス・セグメンテーションは、オブジェクト検出よりもさらに一歩進んで、画像内の個々のオブジェクトを識別し、画像の残りの部分からセグメンテーションする。

インスタンスセグメンテーションモデルの出力は、画像内の各オブジェクトの輪郭を示すマスクまたは輪郭のセットと、各オブジェクトのクラスラベルおよび信頼度スコアです。インスタンスセグメンテーションは、画像内のオブジェクトの位置だけでなく、その正確な形状も知る必要がある場合に便利です。



見るんだ: Python で事前に訓練されたUltralytics YOLOv8 モデルでセグメンテーションを実行する。

チップ

YOLOv8 セグメントモデルは -seg サフィックス、すなわち yolov8n-seg.pt で事前に訓練されている。 COCO.

モデル

YOLOv8 ここでは、事前学習されたSegmentモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されています。

モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。

モデル サイズ
(ピクセル)
mAPbox
50-95
mAPmask
50-95
速度
CPUONNX
(ms
)
速度
A100 TensorRT
(ms
)
params
(M)
FLOPs
(B)
YOLOv8n-セグ 640 36.7 30.5 96.1 1.21 3.4 12.6
YOLOv8s-セグ 640 44.6 36.8 155.7 1.47 11.8 42.6
YOLOv8m-セグ 640 49.9 40.8 317.0 2.18 27.3 110.2
YOLOv8l-セグ 640 52.3 42.6 572.4 2.79 46.0 220.5
YOLOv8x-セグ 640 53.4 43.4 712.1 4.02 71.8 344.1
  • マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCO val2017 データセット。
    複製する yolo val segment data=coco.yaml device=0
  • スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
    複製する yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu

電車

YOLOv8n-segをCOCO128-segデータセットに画像サイズ640で100エポック学習させる。利用可能な引数の全リストは設定ページを参照。

例

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-seg.yaml')  # build a new model from YAML
model = YOLO('yolov8n-seg.pt')  # load a pretrained model (recommended for training)
model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt')  # build from YAML and transfer weights

# Train the model
results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640

データセット形式

YOLO セグメンテーション・データセットの形式は、データセット・ガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。

バル

COCO128-seg データセットで学習済みYOLOv8n-seg モデルの精度を検証する。として引数を渡す必要はない。 model トレーニング data と引数をモデル属性として使用する。

例

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-seg.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map    # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps   # a list contains map50-95(B) of each category
metrics.seg.map    # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps   # a list contains map50-95(M) of each category
yolo segment val model=yolov8n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

予測する

学習済みのYOLOv8n-segモデルを使って、画像の予測を実行する。

例

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-seg.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Predict with the model
results = model('https://ultralytics.com/images/bus.jpg')  # predict on an image
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

詳細を見る predict モードの詳細は 予測する ページを参照されたい。

輸出

YOLOv8n-segモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。

例

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n-seg.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom trained model

# Export the model
model.export(format='onnx')
yolo export model=yolov8n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

利用可能なYOLOv8-seg エクスポート形式は以下の表の通りです。エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolov8n-seg.onnx.使用例は、エクスポート完了後に表示されます。

フォーマット format 議論 モデル メタデータ 論争
PyTorch - yolov8n-seg.pt ✅ -
TorchScript torchscript yolov8n-seg.torchscript ✅ imgsz, optimize
ONNX onnx yolov8n-seg.onnx ✅ imgsz, half, dynamic, simplify, opset
OpenVINO openvino yolov8n-seg_openvino_model/ ✅ imgsz, half, int8
TensorRT engine yolov8n-seg.engine ✅ imgsz, half, dynamic, simplify, workspace
CoreML coreml yolov8n-seg.mlpackage ✅ imgsz, half, int8, nms
TF SavedModel saved_model yolov8n-seg_saved_model/ ✅ imgsz, keras
TF GraphDef pb yolov8n-seg.pb ❌ imgsz
TF ライト tflite yolov8n-seg.tflite ✅ imgsz, half, int8
TF エッジTPU edgetpu yolov8n-seg_edgetpu.tflite ✅ imgsz
TF.js tfjs yolov8n-seg_web_model/ ✅ imgsz, half, int8
PaddlePaddle paddle yolov8n-seg_paddle_model/ ✅ imgsz
ncnn ncnn yolov8n-seg_ncnn_model/ ✅ imgsz, half

詳細を見る export 詳細は 輸出 ページを参照されたい。



作成日:2023-11-12 更新日:2024-02-03
作成者:glenn-jocher(9),Laughing-q(1),AyushExel(1)

コメント