インスタンスのセグメンテーション
インスタンス・セグメンテーションは、オブジェクト検出よりもさらに一歩進んで、画像内の個々のオブジェクトを識別し、画像の残りの部分からセグメンテーションする。
インスタンスセグメンテーションモデルの出力は、画像内の各オブジェクトの輪郭を示すマスクまたは輪郭のセットと、各オブジェクトのクラスラベルおよび信頼度スコアです。インスタンスセグメンテーションは、画像内のオブジェクトの位置だけでなく、その正確な形状も知る必要がある場合に便利です。
見るんだ: Python で事前に訓練されたUltralytics YOLO モデルでセグメンテーションを実行する。
チップ
YOLO11 セグメントモデルは -seg
サフィックス、すなわち yolo11n-seg.pt
で事前に訓練されている。 COCO.
モデル
YOLO11 ここでは、事前学習されたSegmentモデルを示す。Detect、Segment、PoseモデルはCOCOデータセットで事前学習され、ClassifyモデルはImageNetデータセットで事前学習されています。
モデルは、初回使用時に最新のUltralytics リリースから自動的にダウンロードされます。
モデル | サイズ (ピクセル) |
mAPbox 50-95 |
mAPmask 50-95 |
速度 CPU ONNX (ms) |
スピード T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- マップバル 数値はシングル・モデル、シングル・スケールのものである。 COCO val2017 データセット。
複製するyolo val segment data=coco-seg.yaml device=0
- スピード を使用してCOCOバル画像を平均化した。 アマゾンEC2 P4d インスタンスだ。
複製するyolo val segment data=coco-seg.yaml batch=1 device=0|cpu
電車
COCO8-segデータセットでYOLO11n-segを画像サイズ640で100エポック学習。利用可能な引数の全リストは設定ページを参照。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
データセット形式
YOLO セグメンテーション・データセットの形式は、データセット・ガイドに詳しく書かれている。既存のデータセットを他のフォーマット(COCOなど)からYOLO フォーマットに変換するには、Ultralytics のJSON2YOLOツールをご利用ください。
バル
学習済みYOLO11n-segモデルの検証 精度 をCOCO8-segデータセットに適用した。引数は必要ない。 model
トレーニング data
と引数をモデル属性として使用する。
例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
予測する
訓練されたYOLO11n-segモデルを使って、画像の予測を実行する。
例
詳細を見る predict
モードの詳細は 予測する ページを参照されたい。
輸出
YOLO11n-segモデルを、ONNX 、CoreML などの異なるフォーマットにエクスポートします。
例
利用可能なYOLO11-seg エクスポートフォーマットは以下の表の通りです。どのフォーマットにも format
引数、すなわち format='onnx'
または format='engine'
.エクスポートされたモデルを直接予測または検証することができます。 yolo predict model=yolo11n-seg.onnx
.使用例は、エクスポート完了後に表示されます。
フォーマット | format 議論 |
モデル | メタデータ | 議論 |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-seg.pb |
❌ | imgsz , batch |
TF ライト | tflite |
yolo11n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF エッジTPU | edgetpu |
yolo11n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-seg_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-seg.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-seg_imx_model/ |
✅ | imgsz , int8 |
詳細を見る export
詳細は 輸出 ページを参照されたい。
よくあるご質問
カスタムデータセットでYOLO11 セグメンテーションモデルをトレーニングするには?
カスタム・データセットでYOLO11 セグメンテーション・モデルをトレーニングするには、まずYOLO セグメンテーション・フォーマットでデータセットを準備する必要がある。他の形式のデータセットを変換するには、JSON2YOLOなどのツールを使用できます。データセットの準備ができたら、Python またはCLI コマンドを使用してモデルをトレーニングできます:
例
利用可能な引数については、コンフィギュレーション・ページを確認してください。
YOLO11 、オブジェクト検出とインスタンス分割の違いは何ですか?
一方、インスタンス・セグメンテーションは、バウンディング・ボックスを識別するだけでなく、各オブジェクトの正確な形状も定義する。YOLO11 インスタンス・セグメンテーション・モデルは、検出された各オブジェクトの輪郭を示すマスクまたは輪郭を提供する。これは、医療画像や自律走行など、オブジェクトの正確な形状を知ることが重要なタスクで特に役立つ。
インスタンスのセグメンテーションにYOLO11 。
Ultralytics YOLO11 は、高い精度とリアルタイムの性能で定評のある最先端のモデルで、インスタンスのセグメンテーションタスクに最適です。YOLO11 セグメンテーションモデルは、COCOデータセットで事前学習されているため、さまざまなオブジェクトに対してロバストなパフォーマンスを保証します。さらに、YOLO は、シームレスな統合により、トレーニング、検証、予測、およびエクスポート機能をサポートしているため、研究および産業アプリケーションの両方で高い汎用性を発揮します。
事前に学習されたYOLO セグメンテーションモデルをロードし、検証するには?
事前に訓練されたYOLO セグメンテーションモデルのロードと検証は簡単です。ここでは、Python とCLI の両方を使用する方法を示します:
例
これらのステップにより、平均平均精度(mean Average Precision:mAP)のような、モデルのパフォーマンスを評価するのに重要な検証メトリクスが得られます。
YOLO セグメンテーションモデルをONNX フォーマットにエクスポートするにはどうすればよいですか?
YOLO のセグメンテーションモデルをONNX フォーマットにエクスポートするのは簡単で、Python またはCLI コマンドを使用します:
例
様々なフォーマットへのエクスポートの詳細については、エクスポートのページを参照してください。