Saltar al contenido

Detecci贸n de objetos

Ejemplos de detecci贸n de objetos

La detecci贸n de objetos es una tarea que consiste en identificar la ubicaci贸n y la clase de los objetos en una imagen o secuencia de v铆deo.

La salida de un detector de objetos es un conjunto de cuadros delimitadores que encierran los objetos de la imagen, junto con etiquetas de clase y puntuaciones de confianza para cada cuadro. La detecci贸n de objetos es una buena opci贸n cuando necesitas identificar objetos de inter茅s en una escena, pero no necesitas saber exactamente d贸nde est谩 el objeto ni su forma exacta.



Observa: Detecci贸n de objetos con el modelo preentrenado Ultralytics YOLOv8 .

Consejo

YOLOv8 Los modelos de detecci贸n son los modelos por defecto de YOLOv8 , es decir yolov8n.pt y est谩n preentrenados en COCO.

Modelos

YOLOv8 Aqu铆 se muestran los modelos Detectar preentrenados. Los modelos Detectar, Segmentar y Pose est谩n preentrenados en el conjunto de datos COCO, mientras que los modelos Clasificar est谩n preentrenados en el conjunto de datos ImageNet.

Los modelos se descargan autom谩ticamente de la 煤ltimaversi贸n de Ultralytics la primera vez que se utilizan.

Modelo tama帽o
(p铆xeles)
mAPval
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
A100 TensorRT
(ms)
par谩metros
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8
  • mAPval son para un modelo de escala 煤nica en COCO val2017 conjunto de datos.
    Reproducir por yolo val detect data=coco.yaml device=0
  • Velocidad promediada sobre las im谩genes COCO val utilizando un Amazon EC2 P4d instancia.
    Reproducir por yolo val detect data=coco8.yaml batch=1 device=0|cpu

Tren

Entrena YOLOv8n en el conjunto de datos COCO8 durante 100 茅pocas con un tama帽o de imagen de 640. Para ver la lista completa de argumentos disponibles, consulta la p谩gina Configuraci贸n.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from YAML
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Formato del conjunto de datos

YOLO El formato del conjunto de datos de detecci贸n se puede consultar en detalle en la Gu铆a del conjunto de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.

Val

Valida la precisi贸n del modelo entrenado YOLOv8n en el conjunto de datos COCO8. No es necesario pasar ning煤n argumento como model conserva su formaci贸n data y argumentos como atributos del modelo.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolov8n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Predecir

Utiliza un modelo YOLOv8n entrenado para realizar predicciones sobre las im谩genes.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Ver todo predict detalles del modo en el Predecir p谩gina.

Exportar

Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc.

Ejemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Los formatos de exportaci贸n disponibles de YOLOv8 est谩n en la tabla siguiente. Puedes exportar a cualquier formato utilizando el bot贸n format argumento, es decir format='onnx' o format='engine'. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolov8n.onnx. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportaci贸n.

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolov8n.pt -
TorchScript torchscript yolov8n.torchscript imgsz, optimize, batch
ONNX onnx yolov8n.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n.pb imgsz, batch
TF Lite tflite yolov8n.tflite imgsz, half, int8, batch
TF Arista TPU edgetpu yolov8n_edgetpu.tflite imgsz
TF.js tfjs yolov8n_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n_paddle_model/ imgsz, batch
NCNN ncnn yolov8n_ncnn_model/ imgsz, half, batch

Ver todo export detalles en el Exportar p谩gina.



Created 2023-11-12, Updated 2024-06-10
Authors: glenn-jocher (19), Burhan-Q (4), Laughing-q (1)

Comentarios