Segmentación de instancias
La segmentación de instancias va un paso más allá de la detección de objetos y consiste en identificar objetos individuales en una imagen y segmentarlos del resto de la imagen.
El resultado de un modelo de segmentación de instancias es un conjunto de máscaras o contornos que delinean cada objeto de la imagen, junto con etiquetas de clase y puntuaciones de confianza para cada objeto. La segmentación de instancias es útil cuando se necesita saber no sólo dónde están los objetos en una imagen, sino también cuál es su forma exacta.
Observa: Ejecute la segmentación con el modelo Ultralytics YOLO preentrenado en Python.
Consejo
YOLO11 Los modelos de segmentos utilizan el -seg
es decir yolo11n-seg.pt
y están preentrenados en COCO.
Modelos
YOLO11 Aquí se muestran los modelos Segment preentrenados. Los modelos Detect, Segment y Pose se preentrenan en el conjunto de datos COCO, mientras que los modelos Classify se preentrenan en el conjunto de datos ImageNet.
Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.
Modelo | tamaño (píxeles) |
mAPbox 50-95 |
mAPmask 50-95 |
Velocidad CPU ONNX (ms) |
Velocidad T4TensorRT10 (ms) |
parámetros (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- mAPval son para un solo modelo de escala única en COCO val2017 conjunto de datos.
Reproducir poryolo val segment data=coco.yaml device=0
- Velocidad promediadas sobre imágenes COCO val utilizando un Amazon EC2 P4d instancia.
Reproducir poryolo val segment data=coco.yaml batch=1 device=0|cpu
Tren
Entrena YOLO11n-seg en el conjunto de datos COCO8-seg durante 100 épocas con un tamaño de imagen de 640. Para obtener una lista completa de los argumentos disponibles, consulte la página Configuración.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
Formato del conjunto de datos
YOLO El formato de los conjuntos de datos de segmentación se detalla en la Guía de conjuntos de datos. Para convertir su conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utilice la herramienta JSON2YOLO de Ultralytics.
Val
Validación del modelo YOLO11n-seg entrenado precisión en el conjunto de datos COCO8-seg. No se necesitan argumentos, ya que el model
conserva su formación data
y argumentos como atributos del modelo.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Predecir
Utilizar un modelo YOLO11n-seg entrenado para realizar predicciones sobre las imágenes.
Ejemplo
Ver todos predict
detalles del modo en el Predecir página.
Exportar
Exportar un modelo YOLO11n-seg a un formato diferente como ONNX, CoreML, etc.
Ejemplo
Los formatos de exportación disponibles en YOLO11-seg figuran en la tabla siguiente. Puede exportar a cualquier formato utilizando el botón format
es decir format='onnx'
o format='engine'
. Puede predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolo11n-seg.onnx
. Se muestran ejemplos de uso de su modelo una vez finalizada la exportación.
Formato | format Argumento |
Modelo | Metadatos | Argumentos |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Borde TPU | edgetpu |
yolo11n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-seg_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-seg.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-seg_imx_model/ |
✅ | imgsz , int8 |
Ver todos export
detalles en el Exportar página.
PREGUNTAS FRECUENTES
¿Cómo entreno un modelo de segmentación YOLO11 en un conjunto de datos personalizado?
Para entrenar un modelo de segmentación YOLO11 en un conjunto de datos personalizado, primero debe preparar su conjunto de datos en el formato de segmentación YOLO . Puede utilizar herramientas como JSON2YOLO para convertir conjuntos de datos de otros formatos. Una vez preparado el conjunto de datos, puede entrenar el modelo utilizando los comandos Python o CLI :
Ejemplo
Consulta la página de Configuración para ver más argumentos disponibles.
¿Cuál es la diferencia entre la detección de objetos y la segmentación de instancias en YOLO11?
La detección de objetos identifica y localiza los objetos dentro de una imagen dibujando recuadros a su alrededor, mientras que la segmentación de instancias no sólo identifica los recuadros, sino que también delinea la forma exacta de cada objeto. YOLO11 los modelos de segmentación de instancias proporcionan máscaras o contornos que delinean cada objeto detectado, lo que resulta especialmente útil para tareas en las que conocer la forma exacta de los objetos es importante, como la obtención de imágenes médicas o la conducción autónoma.
¿Por qué utilizar YOLO11 para la segmentación de instancias?
Ultralytics YOLO11 es un modelo de última generación reconocido por su gran precisión y rendimiento en tiempo real, lo que lo hace ideal para tareas de segmentación de instancias. YOLO11 Los modelos de segmentación vienen preentrenados en el conjunto de datos COCO, lo que garantiza un rendimiento sólido en una gran variedad de objetos. Además, YOLO admite funciones de formación, validación, predicción y exportación con una integración perfecta, lo que lo hace muy versátil tanto para aplicaciones de investigación como industriales.
¿Cómo puedo cargar y validar un modelo de segmentación preentrenado en YOLO ?
Cargar y validar un modelo de segmentación preentrenado en YOLO es sencillo. A continuación se explica cómo hacerlo utilizando Python y CLI:
Ejemplo
Estos pasos le proporcionarán métricas de validación como la Precisión Media Promedio (mAP), crucial para evaluar el rendimiento del modelo.
¿Cómo puedo exportar un modelo de segmentación de YOLO al formato ONNX ?
La exportación de un modelo de segmentación YOLO al formato ONNX es sencilla y puede realizarse mediante los comandos Python o CLI :
Ejemplo
Para más detalles sobre la exportación a varios formatos, consulte la página Exportar.