Segmentazione delle istanze
L'instance segmentation fa un ulteriore passo avanti rispetto all'object detection e implica l'identificazione di singoli oggetti in un'immagine e la loro segmentazione dal resto dell'immagine.
L'output di un modello di instance segmentation è un insieme di maschere o contorni che delineano ciascun oggetto nell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ciascun oggetto. L'instance segmentation è utile quando è necessario sapere non solo dove si trovano gli oggetti in un'immagine, ma anche qual è la loro forma esatta.
Guarda: Esegui la segmentazione con il modello Ultralytics YOLO pre-addestrato in python.
Suggerimento
I modelli di segmentazione YOLO11 utilizzano il -seg
suffisso, cioè yolo11n-seg.pt
e sono pre-addestrati su COCO.
Modelli
I modelli di segmentazione YOLO11 pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono pre-addestrati sul dataset COCO, mentre i modelli Classify sono pre-addestrati sul dataset ImageNet.
I modelli vengono scaricati automaticamente dall'ultima release di Ultralytics al primo utilizzo.
Modello | dimensione (pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4 TensorRT10 (ms) |
parametri (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- mAPval i valori si riferiscono a un singolo modello single-scale su COCO val2017 dataset.
Riproduci tramiteyolo val segment data=coco.yaml device=0
- Velocità calcolata come media sulle immagini COCO val utilizzando un'istanza Amazon EC2 P4d instance.
Riproduci tramiteyolo val segment data=coco.yaml batch=1 device=0|cpu
Addestramento
Addestra YOLO11n-seg sul dataset COCO8-seg per 100 epoche con una dimensione dell'immagine di 640. Per un elenco completo degli argomenti disponibili, consulta la pagina Configurazione.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
Formato del set di dati
Il formato del dataset di segmentazione YOLO è descritto in dettaglio nella Guida al dataset. Per convertire il tuo dataset esistente da altri formati (come COCO ecc.) in formato YOLO, utilizza lo strumento JSON2YOLO di Ultralytics.
Valutazione
Valida il modello YOLO11n-seg addestrato accuratezza sul dataset COCO8-seg. Non sono necessari argomenti, poiché i model
mantiene il suo training data
e gli argomenti come attributi del modello.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
yolo segment val model=yolo11n-seg.pt # val official model
yolo segment val model=path/to/best.pt # val custom model
Predizione
Utilizza un modello YOLO11n-seg addestrato per eseguire previsioni sulle immagini.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg") # predict on an image
# Access the results
for result in results:
xy = result.masks.xy # mask in polygon format
xyn = result.masks.xyn # normalized
masks = result.masks.data # mask in matrix format (num_objects x H x W)
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg' # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model
Vedi tutti i predict
dettagli della modalità nella Predizione pagina.
Esportazione
Esporta un modello YOLO11n-seg in un formato diverso come ONNX, CoreML, ecc.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model
I formati di esportazione YOLO11-seg disponibili sono nella tabella seguente. Puoi esportare in qualsiasi formato usando il format
argomento, ad esempio format='onnx'
oppure format='engine'
. Puoi prevedere o convalidare direttamente sui modelli esportati, ad esempio yolo predict model=yolo11n-seg.onnx
. Esempi di utilizzo vengono mostrati per il tuo modello dopo che l'esportazione è stata completata.
Formato | format Argomento |
Modello | Metadati | Argomenti |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-seg.torchscript |
✅ | imgsz , half , dynamic , optimize , nms , batch , device |
ONNX | onnx |
yolo11n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n-seg_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n-seg_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n-seg.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n-seg.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Edge TPU | edgetpu |
yolo11n-seg_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n-seg_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n-seg_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n-seg.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n-seg_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n-seg_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n-seg_rknn_model/ |
✅ | imgsz , batch , name , device |
Vedi tutti i export
dettagli nella Esportazione pagina.
FAQ
Come posso addestrare un modello di segmentazione YOLO11 su un dataset personalizzato?
Per addestrare un modello di segmentazione YOLO11 su un dataset personalizzato, devi prima preparare il tuo dataset nel formato di segmentazione YOLO. Puoi utilizzare strumenti come JSON2YOLO per convertire dataset da altri formati. Una volta che il tuo dataset è pronto, puoi addestrare il modello usando comandi Python o CLI:
Esempio
from ultralytics import YOLO
# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")
# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
Consulta la pagina Configurazione per ulteriori argomenti disponibili.
Qual è la differenza tra object detection e segmentazione di istanza in YOLO11?
Il rilevamento di oggetti identifica e localizza gli oggetti all'interno di un'immagine disegnando riquadri di delimitazione attorno ad essi, mentre la segmentazione delle istanze non solo identifica i riquadri di delimitazione, ma delinea anche la forma esatta di ciascun oggetto. I modelli di segmentazione delle istanze YOLO11 forniscono maschere o contorni che delineano ciascun oggetto rilevato, il che è particolarmente utile per attività in cui è importante conoscere la forma precisa degli oggetti, come l'imaging medico o la guida autonoma.
Perché utilizzare YOLO11 per l'instance segmentation?
Ultralytics YOLO11 è un modello all'avanguardia riconosciuto per la sua elevata precisione e le prestazioni in tempo reale, il che lo rende ideale per attività di segmentazione di istanza. I modelli di segmentazione YOLO11 sono pre-addestrati sul dataset COCO, garantendo prestazioni robuste su una varietà di oggetti. Inoltre, YOLO supporta funzionalità di addestramento, convalida, previsione ed esportazione con integrazione perfetta, rendendolo estremamente versatile sia per la ricerca che per le applicazioni industriali.
Come posso caricare e convalidare un modello di segmentazione YOLO pre-addestrato?
Caricare e convalidare un modello di segmentazione YOLO pre-addestrato è semplice. Ecco come puoi farlo usando sia Python che la CLI:
Esempio
from ultralytics import YOLO
# Load a pretrained model
model = YOLO("yolo11n-seg.pt")
# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt
Questi passaggi ti forniranno metriche di convalida come la Mean Average Precision (mAP), fondamentali per valutare le prestazioni del modello.
Come posso esportare un modello di segmentazione YOLO in formato ONNX?
Esportare un modello di segmentazione YOLO in formato ONNX è semplice e può essere fatto usando comandi Python o CLI:
Esempio
from ultralytics import YOLO
# Load a pretrained model
model = YOLO("yolo11n-seg.pt")
# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx
Per maggiori dettagli sull'esportazione in vari formati, fare riferimento alla pagina Esportazione.