Segmentazione delle istanze
La segmentazione delle istanze va oltre il rilevamento degli oggetti e prevede l'identificazione di singoli oggetti in un'immagine e la loro segmentazione dal resto dell'immagine.
L'output di un modello di segmentazione delle istanze è un insieme di maschere o contorni che delineano ogni oggetto dell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ogni oggetto. La segmentazione di istanza è utile quando è necessario sapere non solo dove si trovano gli oggetti in un'immagine, ma anche la loro forma esatta.
Guarda: Eseguire la segmentazione con il modello pre-tracciato Ultralytics YOLO in Python.
Suggerimento
YOLO11 I modelli di segmento utilizzano il metodo -seg
suffisso, cioè yolo11n-seg.pt
e sono preaddestrati su COCO.
Modelli
YOLO11 I modelli Segment pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono stati preaddestrati sul dataset COCO, mentre i modelli Classify sono stati preaddestrati sul dataset ImageNet.
I modelli vengono scaricati automaticamente dall'ultimarelease di Ultralytics al primo utilizzo.
Modello | dimensione (pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- mAPval I valori sono per un modello singolo a scala singola su COCO val2017 set di dati.
Riproduzione dayolo val segment data=coco-seg.yaml device=0
- Velocità mediata sulle immagini COCO val utilizzando una Amazon EC2 P4d istanza.
Riproduzione dayolo val segment data=coco-seg.yaml batch=1 device=0|cpu
Treno
Addestra YOLO11n-seg sul set di dati COCO8-seg per 100 epoche a dimensione 640. Per un elenco completo degli argomenti disponibili, vedere la pagina di configurazione.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
Formato del set di dati
YOLO Il formato del dataset di segmentazione è riportato in dettaglio nella Guida ai dataset. Per convertire i dataset esistenti da altri formati (come COCO, ecc.) al formato YOLO , utilizzare lo strumento JSON2YOLO di Ultralytics.
Val
Convalida del modello YOLO11n-seg addestrato precisione sul set di dati COCO8-seg. Non sono necessari argomenti in quanto l'opzione model
mantiene la sua formazione data
e gli argomenti come attributi del modello.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Prevedere
Utilizzare un modello YOLO11n-seg addestrato per eseguire previsioni sulle immagini.
Esempio
Vedi tutto predict
dettagli sulla modalità nella sezione Prevedere pagina.
Esportazione
Esportazione di un modello YOLO11n-seg in un formato diverso come ONNX, CoreML, ecc.
Esempio
I formati di esportazione disponibili di YOLO11-seg sono riportati nella tabella seguente. È possibile esportare in qualsiasi formato utilizzando l'opzione format
cioè l'argomento format='onnx'
o format='engine'
. È possibile prevedere o convalidare direttamente i modelli esportati, ad es. yolo predict model=yolo11n-seg.onnx
. Al termine dell'esportazione vengono mostrati esempi di utilizzo del modello.
Formato | format Argomento |
Modello | Metadati | Argomenti |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Bordo TPU | edgetpu |
yolo11n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-seg_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-seg.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-seg_imx_model/ |
✅ | imgsz , int8 |
Vedi tutto export
dettagli nel Esportazione pagina.
FAQ
Come si addestra un modello di segmentazione YOLO11 su un set di dati personalizzato?
Per addestrare un modello di segmentazione YOLO11 su un set di dati personalizzato, è necessario innanzitutto preparare il set di dati nel formato di segmentazione YOLO . È possibile utilizzare strumenti come JSON2YOLO per convertire i set di dati da altri formati. Una volta che il dataset è pronto, si può addestrare il modello usando i comandi Python o CLI :
Esempio
Per ulteriori argomenti disponibili, consultare la pagina Configurazione.
Qual è la differenza tra il rilevamento degli oggetti e la segmentazione delle istanze in YOLO11?
Il rilevamento degli oggetti identifica e localizza gli oggetti all'interno di un'immagine disegnando dei riquadri di delimitazione attorno ad essi, mentre la segmentazione delle istanze non solo identifica i riquadri di delimitazione, ma delinea anche la forma esatta di ogni oggetto. YOLO11 modelli di segmentazione delle istanze forniscono maschere o contorni che delineano ogni oggetto rilevato, il che è particolarmente utile per le attività in cui è importante conoscere la forma precisa degli oggetti, come l'imaging medico o la guida autonoma.
Perché utilizzare YOLO11 per la segmentazione delle istanze?
Ultralytics YOLO11 è un modello all'avanguardia riconosciuto per l'elevata precisione e le prestazioni in tempo reale, che lo rendono ideale per le attività di segmentazione. YOLO11 I modelli di segmentazione vengono preaddestrati sul set di dati COCO, assicurando prestazioni solide su una varietà di oggetti. Inoltre, YOLO supporta le funzionalità di addestramento, convalida, previsione ed esportazione con una perfetta integrazione, rendendolo estremamente versatile per le applicazioni di ricerca e industriali.
Come si carica e si convalida un modello di segmentazione preaddestrato YOLO ?
Il caricamento e la convalida di un modello di segmentazione preaddestrato di YOLO sono semplici. Ecco come farlo usando sia Python che CLI:
Esempio
Questi passaggi forniscono metriche di validazione come la precisione media (mAP), fondamentale per valutare le prestazioni del modello.
Come posso esportare un modello di segmentazione YOLO in formato ONNX ?
L'esportazione di un modello di segmentazione YOLO nel formato ONNX è semplice e può essere effettuata utilizzando i comandi Python o CLI :
Esempio
Per ulteriori dettagli sull'esportazione in vari formati, consultare la pagina Esportazione.