yolo val segment data=coco-seg.yaml device=0
yolo val segment data=coco-seg.yaml batch=1 device=0|cpu
Entrena YOLO11n-seg en el conjunto de datos COCO8-seg durante 100 épocas con un tamaño de imagen de 640. Para ver la lista completa de argumentos disponibles, consulta la página Configuración.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
YOLO El formato del conjunto de datos de segmentación se puede consultar en detalle en la Guía del conjunto de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.
Validar el modelo YOLO11n-seg entrenado precisión en el conjunto de datos COCO8-seg. No se necesitan argumentos, ya que el model
conserva su formación data
y argumentos como atributos del modelo.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Utiliza un modelo YOLO11n-seg entrenado para realizar predicciones sobre las imágenes.
Ejemplo
Ver todo predict
detalles del modo en el Predecir página.
Exporta un modelo YOLO11n-seg a un formato diferente como ONNX, CoreML, etc.
Ejemplo
Los formatos de exportación disponibles de YOLO11-seg están en la tabla siguiente. Puedes exportar a cualquier formato utilizando el botón format
argumento, es decir format='onnx'
o format='engine'
. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolo11n-seg.onnx
. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportación.
Formato | format Argumento | Modelo | Metadatos | Argumentos |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt | ✅ | - |
TorchScript | torchscript | yolo11n-seg.torchscript | ✅ | imgsz , optimize , batch |
ONNX | onnx | yolo11n-seg.onnx | ✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino | yolo11n-seg_openvino_model/ | ✅ | imgsz , half , int8 , batch |
TensorRT | engine | yolo11n-seg.engine | ✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml | yolo11n-seg.mlpackage | ✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model | yolo11n-seg_saved_model/ | ✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb | yolo11n-seg.pb | ❌ | imgsz , batch |
TF Lite | tflite | yolo11n-seg.tflite | ✅ | imgsz , half , int8 , batch |
TF Arista TPU | edgetpu | yolo11n-seg_edgetpu.tflite | ✅ | imgsz |
TF.js | tfjs | yolo11n-seg_web_model/ | ✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle | yolo11n-seg_paddle_model/ | ✅ | imgsz , batch |
MNN | mnn | yolo11n-seg.mnn | ✅ | imgsz , batch , int8 , half |
NCNN | ncnn | yolo11n-seg_ncnn_model/ | ✅ | imgsz , half , batch |
IMX500 | imx | yolo11n-seg_imx_model/ | ✅ | imgsz , int8 |
Ver todo export
detalles en el Exportar página.
Para entrenar un modelo de segmentación YOLO11 en un conjunto de datos personalizado, primero tienes que preparar tu conjunto de datos en el formato de segmentación YOLO . Puedes utilizar herramientas como JSON2YOLO para convertir conjuntos de datos de otros formatos. Una vez que tu conjunto de datos esté listo, puedes entrenar el modelo utilizando los comandos Python o CLI :
Ejemplo
Consulta la página Configuración para ver más argumentos disponibles.
La detección de objetos identifica y localiza los objetos dentro de una imagen dibujando recuadros delimitadores a su alrededor, mientras que la segmentación de instancias no sólo identifica los recuadros delimitadores, sino que también delinea la forma exacta de cada objeto. Los modelos de segmentación de instancias de YOLO11 proporcionan máscaras o contornos que delinean cada objeto detectado, lo que resulta especialmente útil para tareas en las que conocer la forma precisa de los objetos es importante, como las imágenes médicas o la conducción autónoma.
Ultralytics YOLO11 es un modelo de vanguardia reconocido por su gran precisión y rendimiento en tiempo real, lo que lo hace ideal para tareas de segmentación de instancias. Los modelos de Segmento YOLO11 vienen preentrenados en el conjunto de datos COCO, lo que garantiza un rendimiento sólido en una gran variedad de objetos. Además, YOLO admite funcionalidades de entrenamiento, validación, predicción y exportación con una integración perfecta, lo que lo hace muy versátil tanto para aplicaciones de investigación como industriales.
Cargar y validar un modelo de segmentación YOLO preentrenado es sencillo. A continuación te explicamos cómo puedes hacerlo utilizando tanto Python como CLI:
Ejemplo
Estos pasos te proporcionarán métricas de validación como la Precisión Media Promedio (mAP), cruciales para evaluar el rendimiento del modelo.
Exportar un modelo de segmentación YOLO al formato ONNX es sencillo y puede hacerse utilizando los comandos Python o CLI :
Ejemplo
Para más detalles sobre la exportación a varios formatos, consulta la página Exportar.