Saltar al contenido

Segmentación de instancias

Ejemplos de segmentación de instancias

La segmentación de instancias va un paso más allá de la detección de objetos y consiste en identificar objetos individuales en una imagen y segmentarlos del resto de la imagen.

La salida de un modelo de segmentación de instancias es un conjunto de máscaras o contornos que delinean cada objeto de la imagen, junto con etiquetas de clase y puntuaciones de confianza para cada objeto. La segmentación de instancias es útil cuando necesitas saber no sólo dónde están los objetos en una imagen, sino también cuál es su forma exacta.



Observa: Ejecuta la segmentación con el modelo preentrenado Ultralytics YOLOv8 en Python.

Consejo

YOLOv8 Los modelos de segmentos utilizan la -seg sufijo, es decir yolov8n-seg.pt y están preentrenados en COCO.

Modelos

YOLOv8 Aquí se muestran los modelos Segmentar preentrenados. Los modelos Detectar, Segmentar y Pose están preentrenados en el conjunto de datos COCO, mientras que los modelos Clasificar están preentrenados en el conjunto de datos ImageNet.

Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.

Modelo tamaño
(píxeles)
mAPbox
50-95
mAPmask
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
A100 TensorRT
(ms)
parámetros
(M)
FLOPs
(B)
YOLOv8n-seg 640 36.7 30.5 96.1 1.21 3.4 12.6
YOLOv8s-seg 640 44.6 36.8 155.7 1.47 11.8 42.6
YOLOv8m-seg 640 49.9 40.8 317.0 2.18 27.3 110.2
YOLOv8l-seg 640 52.3 42.6 572.4 2.79 46.0 220.5
YOLOv8x-seg 640 53.4 43.4 712.1 4.02 71.8 344.1
  • mAPval son para un modelo de escala única en COCO val2017 conjunto de datos.
    Reproducir por yolo val segment data=coco.yaml device=0
  • Velocidad promediada sobre las imágenes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val segment data=coco8-seg.yaml batch=1 device=0|cpu

Tren

Entrena YOLOv8n-seg en el conjunto de datos COCO128-seg durante 100 épocas con un tamaño de imagen de 640. Para ver la lista completa de argumentos disponibles, consulta la página Configuración.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.yaml")  # build a new model from YAML
model = YOLO("yolov8n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-seg.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640

Formato del conjunto de datos

YOLO El formato del conjunto de datos de segmentación se puede consultar en detalle en la Guía del conjunto de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.

Val

Valida la precisión del modelo entrenado YOLOv8n-seg en el conjunto de datos COCO128-seg. No es necesario pasar ningún argumento como model conserva su formación data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolov8n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

Predecir

Utiliza un modelo YOLOv8n-seg entrenado para realizar predicciones sobre las imágenes.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Ver todo predict detalles del modo en el Predecir página.

Exportar

Exporta un modelo YOLOv8n-seg a un formato diferente como ONNX, CoreML, etc.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Los formatos de exportación disponibles de YOLOv8-seg están en la tabla siguiente. Puedes exportar a cualquier formato utilizando el botón format argumento, es decir format='onnx' o format='engine'. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolov8n-seg.onnx. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportación.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolov8n-seg.pt -
TorchScript torchscript yolov8n-seg.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-seg.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-seg_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-seg.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-seg_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-seg.pb imgsz, batch
TF Lite tflite yolov8n-seg.tflite imgsz, half, int8, batch
TF Arista TPU edgetpu yolov8n-seg_edgetpu.tflite imgsz
TF.js tfjs yolov8n-seg_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-seg_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-seg_ncnn_model/ imgsz, half, batch

Ver todo export detalles en el Exportar página.

PREGUNTAS FRECUENTES

¿Cómo entreno un modelo de segmentación YOLOv8 en un conjunto de datos personalizado?

Para entrenar un modelo de segmentación YOLOv8 en un conjunto de datos personalizado, primero tienes que preparar tu conjunto de datos en el formato de segmentación YOLO . Puedes utilizar herramientas como JSON2YOLO para convertir conjuntos de datos de otros formatos. Una vez que tu conjunto de datos esté listo, puedes entrenar el modelo utilizando los comandos Python o CLI :

Ejemplo

from ultralytics import YOLO

# Load a pretrained YOLOv8 segment model
model = YOLO("yolov8n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

Consulta la página Configuración para ver más argumentos disponibles.

¿Cuál es la diferencia entre la detección de objetos y la segmentación de instancias en YOLOv8?

La detección de objetos identifica y localiza los objetos dentro de una imagen dibujando recuadros delimitadores a su alrededor, mientras que la segmentación de instancias no sólo identifica los recuadros delimitadores, sino que también delinea la forma exacta de cada objeto. YOLOv8 los modelos de segmentación de instancias proporcionan máscaras o contornos que delinean cada objeto detectado, lo que resulta especialmente útil para tareas en las que conocer la forma precisa de los objetos es importante, como las imágenes médicas o la conducción autónoma.

¿Por qué utilizar YOLOv8 para la segmentación de instancias?

Ultralytics YOLOv8 es un modelo de vanguardia reconocido por su gran precisión y rendimiento en tiempo real, lo que lo hace ideal para tareas de segmentación de instancias. YOLOv8 Los modelos de segmentación vienen preentrenados en el conjunto de datos COCO, lo que garantiza un rendimiento sólido en una gran variedad de objetos. Además, YOLOv8 admite funcionalidades de entrenamiento, validación, predicción y exportación con una integración perfecta, lo que lo hace muy versátil tanto para aplicaciones de investigación como industriales.

¿Cómo puedo cargar y validar un modelo de segmentación YOLOv8 preentrenado?

Cargar y validar un modelo de segmentación YOLOv8 preentrenado es sencillo. A continuación te explicamos cómo puedes hacerlo utilizando tanto Python como CLI:

Ejemplo

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolov8n-seg.pt

Estos pasos te proporcionarán métricas de validación como la Precisión Media Promedio (mAP), cruciales para evaluar el rendimiento del modelo.

¿Cómo puedo exportar un modelo de segmentación de YOLOv8 al formato ONNX ?

Exportar un modelo de segmentación YOLOv8 al formato ONNX es sencillo y puede hacerse utilizando los comandos Python o CLI :

Ejemplo

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx

Para más detalles sobre la exportación a varios formatos, consulta la página Exportar.



Creado 2023-11-12, Actualizado 2024-07-04
Autores: glenn-jocher (20), Burhan-Q (4), Laughing-q (1)

Comentarios