Vai al contenuto

Segmentazione delle istanze

Esempi di segmentazione delle istanze

L'instance segmentation fa un ulteriore passo avanti rispetto all'object detection e implica l'identificazione di singoli oggetti in un'immagine e la loro segmentazione dal resto dell'immagine.

L'output di un modello di instance segmentation è un insieme di maschere o contorni che delineano ciascun oggetto nell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ciascun oggetto. L'instance segmentation è utile quando è necessario sapere non solo dove si trovano gli oggetti in un'immagine, ma anche qual è la loro forma esatta.



Guarda: Esegui la segmentazione con il modello Ultralytics YOLO pre-addestrato in python.

Suggerimento

I modelli di segmentazione YOLO11 utilizzano il -seg suffisso, cioè yolo11n-seg.pt e sono pre-addestrati su COCO.

Modelli

I modelli di segmentazione YOLO11 pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono pre-addestrati sul dataset COCO, mentre i modelli Classify sono pre-addestrati sul dataset ImageNet.

I modelli vengono scaricati automaticamente dall'ultima release di Ultralytics al primo utilizzo.

Modello dimensione
(pixel)
mAPbox
50-95
mAPmask
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0
  • mAPval i valori si riferiscono a un singolo modello single-scale su COCO val2017 dataset.
    Riproduci tramite yolo val segment data=coco.yaml device=0
  • Velocità calcolata come media sulle immagini COCO val utilizzando un'istanza Amazon EC2 P4d instance.
    Riproduci tramite yolo val segment data=coco.yaml batch=1 device=0|cpu

Addestramento

Addestra YOLO11n-seg sul dataset COCO8-seg per 100 epoche con una dimensione dell'immagine di 640. Per un elenco completo degli argomenti disponibili, consulta la pagina Configurazione.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640

Formato del set di dati

Il formato del dataset di segmentazione YOLO è descritto in dettaglio nella Guida al dataset. Per convertire il tuo dataset esistente da altri formati (come COCO ecc.) in formato YOLO, utilizza lo strumento JSON2YOLO di Ultralytics.

Valutazione

Valida il modello YOLO11n-seg addestrato accuratezza sul dataset COCO8-seg. Non sono necessari argomenti, poiché i model mantiene il suo training data e gli argomenti come attributi del modello.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolo11n-seg.pt  # val official model
yolo segment val model=path/to/best.pt # val custom model

Predizione

Utilizza un modello YOLO11n-seg addestrato per eseguire previsioni sulle immagini.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image

# Access the results
for result in results:
    xy = result.masks.xy  # mask in polygon format
    xyn = result.masks.xyn  # normalized
    masks = result.masks.data  # mask in matrix format (num_objects x H x W)
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

Vedi tutti i predict dettagli della modalità nella Predizione pagina.

Esportazione

Esporta un modello YOLO11n-seg in un formato diverso come ONNX, CoreML, ecc.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model

I formati di esportazione YOLO11-seg disponibili sono nella tabella seguente. Puoi esportare in qualsiasi formato usando il format argomento, ad esempio format='onnx' oppure format='engine'. Puoi prevedere o convalidare direttamente sui modelli esportati, ad esempio yolo predict model=yolo11n-seg.onnx. Esempi di utilizzo vengono mostrati per il tuo modello dopo che l'esportazione è stata completata.

Formato format Argomento Modello Metadati Argomenti
PyTorch - yolo11n-seg.pt -
TorchScript torchscript yolo11n-seg.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n-seg.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n-seg_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n-seg.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n-seg_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n-seg.pb imgsz, batch, device
TF Lite tflite yolo11n-seg.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n-seg_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n-seg_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n-seg_paddle_model/ imgsz, batch, device
MNN mnn yolo11n-seg.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n-seg_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n-seg_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n-seg_rknn_model/ imgsz, batch, name, device

Vedi tutti i export dettagli nella Esportazione pagina.

FAQ

Come posso addestrare un modello di segmentazione YOLO11 su un dataset personalizzato?

Per addestrare un modello di segmentazione YOLO11 su un dataset personalizzato, devi prima preparare il tuo dataset nel formato di segmentazione YOLO. Puoi utilizzare strumenti come JSON2YOLO per convertire dataset da altri formati. Una volta che il tuo dataset è pronto, puoi addestrare il modello usando comandi Python o CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

Consulta la pagina Configurazione per ulteriori argomenti disponibili.

Qual è la differenza tra object detection e segmentazione di istanza in YOLO11?

Il rilevamento di oggetti identifica e localizza gli oggetti all'interno di un'immagine disegnando riquadri di delimitazione attorno ad essi, mentre la segmentazione delle istanze non solo identifica i riquadri di delimitazione, ma delinea anche la forma esatta di ciascun oggetto. I modelli di segmentazione delle istanze YOLO11 forniscono maschere o contorni che delineano ciascun oggetto rilevato, il che è particolarmente utile per attività in cui è importante conoscere la forma precisa degli oggetti, come l'imaging medico o la guida autonoma.

Perché utilizzare YOLO11 per l'instance segmentation?

Ultralytics YOLO11 è un modello all'avanguardia riconosciuto per la sua elevata precisione e le prestazioni in tempo reale, il che lo rende ideale per attività di segmentazione di istanza. I modelli di segmentazione YOLO11 sono pre-addestrati sul dataset COCO, garantendo prestazioni robuste su una varietà di oggetti. Inoltre, YOLO supporta funzionalità di addestramento, convalida, previsione ed esportazione con integrazione perfetta, rendendolo estremamente versatile sia per la ricerca che per le applicazioni industriali.

Come posso caricare e convalidare un modello di segmentazione YOLO pre-addestrato?

Caricare e convalidare un modello di segmentazione YOLO pre-addestrato è semplice. Ecco come puoi farlo usando sia Python che la CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt

Questi passaggi ti forniranno metriche di convalida come la Mean Average Precision (mAP), fondamentali per valutare le prestazioni del modello.

Come posso esportare un modello di segmentazione YOLO in formato ONNX?

Esportare un modello di segmentazione YOLO in formato ONNX è semplice e può essere fatto usando comandi Python o CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx

Per maggiori dettagli sull'esportazione in vari formati, fare riferimento alla pagina Esportazione.



📅 Creato 1 anno fa ✏️ Aggiornato 5 mesi fa

Commenti