Vai al contenuto

Segmentazione delle istanze

Esempi di segmentazione delle istanze

L'instance segmentation fa un ulteriore passo avanti rispetto all'object detection e implica l'identificazione di singoli oggetti in un'immagine e la loro segmentazione dal resto dell'immagine.

L'output di un modello di instance segmentation è un insieme di maschere o contorni che delineano ciascun oggetto nell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ciascun oggetto. L'instance segmentation è utile quando è necessario sapere non solo dove si trovano gli oggetti in un'immagine, ma anche qual è la loro forma esatta.



Guarda: Esegui Segmentation con un modello Ultralytics YOLO pre-addestrato in Python.

Suggerimento

I modelli YOLO26 Segment utilizzano il -seg suffisso, ad esempio, yolo26n-seg.pt, e sono pre-addestrati su COCO.

Modelli

I modelli YOLO26 Segment pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono pre-addestrati sul dataset COCO, mentre i modelli Classify sono pre-addestrati sul dataset ImageNet.

I modelli vengono scaricati automaticamente dall'ultima release di Ultralytics al primo utilizzo.

Modellodimensione
(pixel)
mAPbox
50-95(e2e)
mAPmask
50-95(e2e)
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLO26n-seg64039.633.953.3 ± 0.52.1 ± 0.02.79.1
YOLO26s-seg64047.340.0118.4 ± 0.93.3 ± 0.010.434.2
YOLO26m-seg64052.544.1328.2 ± 2.46.7 ± 0.123.6121.5
YOLO26l-seg64054.445.5387.0 ± 3.78.0 ± 0.128.0139.8
YOLO26x-seg64056.547.0787.0 ± 6.816.4 ± 0.162.8313.5
  • mAPval i valori si riferiscono a un singolo modello single-scale su COCO val2017 dataset.
    Riproduci tramite yolo val segment data=coco.yaml device=0
  • Velocità calcolata in media sulle immagini COCO val utilizzando un Amazon EC2 P4d instance.
    Riproduci tramite yolo val segment data=coco.yaml batch=1 device=0|cpu

Addestramento

Addestra YOLO26n-seg sul dataset COCO8-seg per 100 epoche con dimensione immagine 640. Per un elenco completo degli argomenti disponibili, consulta la pagina Configurazione.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo26n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo26n-seg.yaml").load("yolo26n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo26n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo26n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo26n-seg.yaml pretrained=yolo26n-seg.pt epochs=100 imgsz=640

Formato del set di dati

Il formato del dataset per la segmentation YOLO è descritto in dettaglio nella Guida al dataset. Per convertire il tuo dataset esistente da altri formati (come COCO ecc.) al formato YOLO, utilizza lo strumento JSON2YOLO di Ultralytics.

Valutazione

Valida il modello YOLO26n-seg addestrato accuratezza sul dataset COCO8-seg. Non sono necessari argomenti poiché il model mantiene il suo training data e gli argomenti come attributi del modello.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list containing mAP50-95(B) for each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list containing mAP50-95(M) for each category
yolo segment val model=yolo26n-seg.pt  # val official model
yolo segment val model=path/to/best.pt # val custom model

Predizione

Usa un modello YOLO26n-seg addestrato per eseguire predizioni su immagini.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image

# Access the results
for result in results:
    xy = result.masks.xy  # mask in polygon format
    xyn = result.masks.xyn  # normalized
    masks = result.masks.data  # mask in matrix format (num_objects x H x W)
yolo segment predict model=yolo26n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

Vedi tutti i predict dettagli della modalità nella Predizione pagina.

Esportazione

Esporta un modello YOLO26n-seg in un formato diverso come ONNX, CoreML, ecc.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom-trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo26n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx # export custom-trained model

I formati di esportazione YOLO26-seg disponibili sono nella tabella seguente. Puoi esportare in qualsiasi formato utilizzando il format argomento, cioè, format='onnx' oppure format='engine'. È possibile effettuare previsioni o validazioni direttamente sui modelli esportati, cioè, yolo predict model=yolo26n-seg.onnx. Esempi di utilizzo vengono mostrati per il tuo modello dopo che l'esportazione è stata completata.

Formatoformat ArgomentoModelloMetadatiArgomenti
PyTorch-yolo26n-seg.pt-
TorchScripttorchscriptyolo26n-seg.torchscriptimgsz, half, dynamic, optimize, nms, batch, device
ONNXonnxyolo26n-seg.onnximgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINOopenvinoyolo26n-seg_openvino_model/imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRTengineyolo26n-seg.engineimgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreMLcoremlyolo26n-seg.mlpackageimgsz, dynamic, half, int8, nms, batch, device
TF SavedModelsaved_modelyolo26n-seg_saved_model/imgsz, keras, int8, nms, batch, device
TF GraphDefpbyolo26n-seg.pbimgsz, batch, device
TF Litetfliteyolo26n-seg.tfliteimgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPUedgetpuyolo26n-seg_edgetpu.tfliteimgsz, device
TF.jstfjsyolo26n-seg_web_model/imgsz, half, int8, nms, batch, device
PaddlePaddlepaddleyolo26n-seg_paddle_model/imgsz, batch, device
MNNmnnyolo26n-seg.mnnimgsz, batch, int8, half, device
NCNNncnnyolo26n-seg_ncnn_model/imgsz, half, batch, device
IMX500imxyolo26n-seg_imx_model/imgsz, int8, data, fraction, device
RKNNrknnyolo26n-seg_rknn_model/imgsz, batch, name, device
ExecuTorchexecutorchyolo26n-seg_executorch_model/imgsz, device
Axeleraaxelerayolo26n-seg_axelera_model/imgsz, int8, data, fraction, device

Vedi tutti i export dettagli nella Esportazione pagina.

FAQ

Come si addestra un modello di segmentazione YOLO26 su un dataset personalizzato?

Per addestrare un modello di segmentazione YOLO26 su un dataset personalizzato, devi prima preparare il tuo dataset nel formato di segmentazione YOLO. Puoi utilizzare strumenti come JSON2YOLO per convertire dataset da altri formati. Una volta che il tuo dataset è pronto, puoi addestrare il modello utilizzando comandi Python o CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained YOLO26 segment model
model = YOLO("yolo26n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo26n-seg.pt epochs=100 imgsz=640

Consulta la pagina Configurazione per ulteriori argomenti disponibili.

Qual è la differenza tra rilevamento di oggetti e segmentazione delle istanze in YOLO26?

Il rilevamento di oggetti identifica e localizza gli oggetti all'interno di un'immagine disegnando bounding box attorno ad essi, mentre la segmentazione delle istanze non solo identifica i bounding box ma delinea anche la forma esatta di ciascun oggetto. I modelli di segmentazione delle istanze YOLO26 forniscono maschere o contorni che delineano ogni oggetto detect, il che è particolarmente utile per attività in cui conoscere la forma precisa degli oggetti è importante, come l'imaging medico o la guida autonoma.

Perché usare YOLO26 per la segmentazione delle istanze?

Ultralytics YOLO26 è un modello all'avanguardia riconosciuto per la sua elevata precisione e le prestazioni in tempo reale, rendendolo ideale per i compiti di segmentazione delle istanze. I modelli YOLO26 Segment sono pre-addestrati sul dataset COCO, garantendo prestazioni robuste su una varietà di oggetti. Inoltre, YOLO supporta funzionalità di addestramento, validazione, predizione ed esportazione con integrazione perfetta, rendendolo altamente versatile sia per la ricerca che per le applicazioni industriali.

Come posso caricare e convalidare un modello di segmentazione YOLO pre-addestrato?

Caricare e convalidare un modello di segmentazione YOLO pre-addestrato è semplice. Ecco come puoi farlo usando sia Python che la CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo26n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo26n-seg.pt

Questi passaggi ti forniranno metriche di convalida come la Mean Average Precision (mAP), fondamentali per valutare le prestazioni del modello.

Come posso esportare un modello di segmentazione YOLO in formato ONNX?

Esportare un modello di segmentazione YOLO in formato ONNX è semplice e può essere fatto usando comandi Python o CLI:

Esempio

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo26n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo26n-seg.pt format=onnx

Per maggiori dettagli sull'esportazione in vari formati, fare riferimento alla pagina Esportazione.



📅 Creato 2 anni fa ✏️ Aggiornato 2 giorni fa
glenn-jocherBurhan-Qambitious-octopusUltralyticsAssistantY-T-Gpderrengerjk4eMatthewNoyceRizwanMunawar

Commenti