コンテンツへスキップ

インスタンスのセグメンテーション

インスタンス分割の例

インスタンス・セグメンテーションは、オブジェクト検出よりもさらに一歩進んで、画像内の個々のオブジェクトを識別し、画像の残りの部分からセグメンテーションする。

インスタンスセグメンテーションモデルの出力は、画像内の各オブジェクトの輪郭を示すマスクまたは輪郭のセットと、各オブジェクトのクラスラベルおよび信頼度スコアです。インスタンスセグメンテーションは、画像内のオブジェクトの位置だけでなく、その正確な形状も知る必要がある場合に便利です。



見るんだ: Python で事前に訓練されたUltralytics YOLO モデルでセグメンテーションを実行する。

チップ

YOLO11 セグメントモデルは -seg サフィックス、すなわち yolo11n-seg.pt で事前に訓練されている。 COCO.

モデル

YOLO11 ここでは、事前学習されたSegmentモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されています。

モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。

モデル サイズ
(ピクセル)
mAPbox
50-95
mAPmask
50-95
速度
CPU ONNX
(ms)
スピード
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0
  • マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCO val2017 データセット。
    複製する yolo val segment data=coco-seg.yaml device=0
  • スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
    複製する yolo val segment data=coco-seg.yaml batch=1 device=0|cpu

電車

COCO8-segデータセットでYOLO11n-segを画像サイズ640で100エポック学習。利用可能な引数の全リストは設定ページを参照。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640

データセット形式

YOLO セグメンテーション・データセットの形式は、データセット・ガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。

バル

学習済みYOLO11n-segモデルの検証 精度 をCOCO8-segデータセットに適用した。引数は必要ない。 model トレーニング data と引数をモデル属性として使用する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolo11n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

予測する

訓練されたYOLO11n-segモデルを使って、画像の予測を実行する。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

詳細を見る predict モードの詳細は 予測する ページを参照されたい。

輸出

YOLO11n-segモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

利用可能なYOLO11-seg エクスポートフォーマットは以下の表の通りです。どのフォーマットにも format 引数、すなわち format='onnx' または format='engine'.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n-seg.onnx.使用例は、エクスポート完了後に表示されます。

フォーマット format 議論 モデル メタデータ 議論
PyTorch - yolo11n-seg.pt -
TorchScript torchscript yolo11n-seg.torchscript imgsz, optimize, batch
ONNX onnx yolo11n-seg.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n-seg_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n-seg.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-seg_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n-seg.pb imgsz, batch
TF ライト tflite yolo11n-seg.tflite imgsz, half, int8, batch
TF エッジTPU edgetpu yolo11n-seg_edgetpu.tflite imgsz
TF.js tfjs yolo11n-seg_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n-seg_paddle_model/ imgsz, batch
MNN mnn yolo11n-seg.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-seg_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-seg_imx_model/ imgsz, int8

詳細を見る export 詳細は 輸出 ページを参照されたい。

よくあるご質問

カスタムデータセットでYOLO11 セグメンテーションモデルをトレーニングするには?

カスタム・データセットでYOLO11 セグメンテーション・モデルをトレーニングするには、まずYOLO セグメンテーション・フォーマットでデータセットを準備する必要がある。他の形式のデータセットを変換するには、JSON2YOLOなどのツールを使用できます。データセットの準備ができたら、Python またはCLI コマンドを使用してモデルをトレーニングできます:

from ultralytics import YOLO

# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

利用可能な引数については、コンフィギュレーション・ページを確認してください。

YOLO11 、オブジェクト検出とインスタンス分割の違いは何ですか?

一方、インスタンス・セグメンテーションは、バウンディング・ボックスを識別するだけでなく、各オブジェクトの正確な形状も定義する。YOLO11 インスタンス・セグメンテーション・モデルは、検出された各オブジェクトの輪郭を示すマスクまたは輪郭を提供する。これは、医療画像や自律走行など、オブジェクトの正確な形状を知ることが重要なタスクで特に役立つ。

インスタンスのセグメンテーションにYOLO11 。

Ultralytics YOLO11 は、高い精度とリアルタイムの性能で定評のある最先端のモデルで、インスタンスのセグメンテーションタスクに最適です。YOLO11 セグメンテーションモデルは、COCOデータセットで事前学習されているため、さまざまなオブジェクトに対してロバストなパフォーマンスを保証します。さらに、YOLO は、シームレスな統合により、トレーニング、検証、予測、およびエクスポート機能をサポートしているため、研究および産業アプリケーションの両方で高い汎用性を発揮します。

事前に学習されたYOLO セグメンテーションモデルをロードし、検証するには?

事前に訓練されたYOLO セグメンテーションモデルのロードと検証は簡単です。ここでは、Python とCLI の両方を使用する方法を示します:

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt

これらのステップにより、平均平均精度mean Average Precision:mAP)のような、モデルのパフォーマンスを評価するのに重要な検証メトリクスが得られます。

YOLO セグメンテーションモデルをONNX フォーマットにエクスポートするにはどうすればよいですか?

YOLO のセグメンテーションモデルをONNX フォーマットにエクスポートするのは簡単で、Python またはCLI コマンドを使用します:

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx

様々なフォーマットへのエクスポートの詳細については、エクスポートのページを参照してください。

📅作成:1年前 ✏️更新:1ヶ月前

コメント