Saltar al contenido

Detección de objetos

Ejemplos de detección de objetos

La detección de objetos es una tarea que consiste en identificar la ubicación y la clase de los objetos en una imagen o secuencia de vídeo.

La salida de un detector de objetos es un conjunto de cuadros delimitadores que encierran los objetos de la imagen, junto con etiquetas de clase y puntuaciones de confianza para cada cuadro. La detección de objetos es una buena opción cuando necesitas identificar objetos de interés en una escena, pero no necesitas saber exactamente dónde está el objeto ni su forma exacta.



Observa: Detección de objetos con el modelo preentrenado Ultralytics YOLOv8 .

Consejo

YOLOv8 Los modelos de detección son los modelos por defecto de YOLOv8 , es decir yolov8n.pt y están preentrenados en COCO.

Modelos

YOLOv8 Aquí se muestran los modelos Detectar preentrenados. Los modelos Detectar, Segmentar y Pose están preentrenados en el conjunto de datos COCO, mientras que los modelos Clasificar están preentrenados en el conjunto de datos ImageNet.

Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.

Modelo tamaño
(píxeles)
mAPval
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
A100 TensorRT
(ms)
parámetros
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8
  • mAPval son para un modelo de escala única en COCO val2017 conjunto de datos.
    Reproducir por yolo val detect data=coco.yaml device=0
  • Velocidad promediada sobre las imágenes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val detect data=coco8.yaml batch=1 device=0|cpu

Tren

Entrena YOLOv8n en el conjunto de datos COCO8 durante 100 épocas con un tamaño de imagen de 640. Para ver la lista completa de argumentos disponibles, consulta la página Configuración.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from YAML
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Formato del conjunto de datos

YOLO El formato del conjunto de datos de detección se puede consultar en detalle en la Guía del conjunto de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.

Val

Valida la precisión del modelo entrenado YOLOv8n en el conjunto de datos COCO8. No es necesario pasar ningún argumento como model conserva su formación data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolov8n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Predecir

Utiliza un modelo YOLOv8n entrenado para realizar predicciones sobre las imágenes.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Ver todo predict detalles del modo en el Predecir página.

Exportar

Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Los formatos de exportación disponibles de YOLOv8 están en la tabla siguiente. Puedes exportar a cualquier formato utilizando el botón format argumento, es decir format='onnx' o format='engine'. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolov8n.onnx. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportación.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolov8n.pt -
TorchScript torchscript yolov8n.torchscript imgsz, optimize, batch
ONNX onnx yolov8n.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n.pb imgsz, batch
TF Lite tflite yolov8n.tflite imgsz, half, int8, batch
TF Arista TPU edgetpu yolov8n_edgetpu.tflite imgsz
TF.js tfjs yolov8n_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n_paddle_model/ imgsz, batch
NCNN ncnn yolov8n_ncnn_model/ imgsz, half, batch

Ver todo export detalles en el Exportar página.

PREGUNTAS FRECUENTES

¿Cómo entreno un modelo YOLOv8 en mi conjunto de datos personalizado?

Entrenar un modelo YOLOv8 en un conjunto de datos personalizado implica unos cuantos pasos:

  1. Prepara el conjunto de datos: Asegúrate de que tu conjunto de datos tiene el formato YOLO . Para más información, consulta nuestra Guía del conjunto de datos.
  2. Carga el modelo: Utiliza la biblioteca Ultralytics YOLO para cargar un modelo preentrenado o crear un nuevo modelo a partir de un archivo YAML.
  3. Entrenar al modelo: Ejecuta el train en Python o el método yolo detect train comando en CLI.

Ejemplo

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n.pt")

# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolov8n.pt epochs=100 imgsz=640

Para conocer en detalle las opciones de configuración, visita la página Configuración.

¿Qué modelos preentrenados están disponibles en YOLOv8?

Ultralytics YOLOv8 ofrece varios modelos preentrenados para la detección de objetos, la segmentación y la estimación de la pose. Estos modelos están preentrenados en el conjunto de datos COCO o ImageNet para tareas de clasificación. He aquí algunos de los modelos disponibles:

Para ver una lista detallada y las métricas de rendimiento, consulta la sección Modelos.

¿Cómo puedo validar la precisión de mi modelo entrenado YOLOv8 ?

Para validar la precisión de tu modelo entrenado YOLOv8 , puedes utilizar la función .val() en Python o el método yolo detect val en CLI. Esto proporcionará métricas como mAP50-95, mAP50 y más.

Ejemplo

from ultralytics import YOLO

# Load the model
model = YOLO("path/to/best.pt")

# Validate the model
metrics = model.val()
print(metrics.box.map)  # mAP50-95
yolo detect val model=path/to/best.pt

Para más detalles sobre la validación, visita la página Val.

¿A qué formatos puedo exportar un modelo de YOLOv8 ?

Ultralytics YOLOv8 permite exportar modelos a varios formatos, como ONNX, TensorRT, CoreML, y más, para garantizar la compatibilidad en diferentes plataformas y dispositivos.

Ejemplo

from ultralytics import YOLO

# Load the model
model = YOLO("yolov8n.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx

Consulta la lista completa de formatos compatibles y las instrucciones en la página Exportar.

¿Por qué debería utilizar Ultralytics YOLOv8 para la detección de objetos?

Ultralytics YOLOv8 está diseñado para ofrecer un rendimiento de vanguardia en la detección de objetos, la segmentación y la estimación de la pose. He aquí algunas ventajas clave:

  1. Modelos preentrenados: Utiliza modelos preentrenados en conjuntos de datos populares como COCO e ImageNet para un desarrollo más rápido.
  2. Gran Precisión: Alcanza puntuaciones mAP impresionantes, garantizando una detección de objetos fiable.
  3. Velocidad: Optimizado para la inferencia en tiempo real, lo que lo hace ideal para aplicaciones que requieren un procesamiento rápido.
  4. Flexibilidad: Exporta modelos a varios formatos como ONNX y TensorRT para desplegarlos en múltiples plataformas.

Explora nuestro Blog para ver casos de uso e historias de éxito que muestran YOLOv8 en acción.



Creado 2023-11-12, Actualizado 2024-07-04
Autores: glenn-jocher (21), Burhan-Q (4), Laughing-q (1)

Comentarios