Detección de objetos
La detección de objetos es una tarea que consiste en identificar la ubicación y la clase de los objetos en una imagen o secuencia de vídeo.
La salida de un detector de objetos es un conjunto de cuadros delimitadores que encierran los objetos de la imagen, junto con etiquetas de clase y puntuaciones de confianza para cada cuadro. La detección de objetos es una buena opción cuando necesitas identificar objetos de interés en una escena, pero no necesitas saber exactamente dónde está el objeto ni su forma exacta.
Observa: Detección de objetos con el modelo preentrenado Ultralytics YOLOv8 .
Consejo
YOLOv8 Los modelos de detección son los modelos por defecto de YOLOv8 , es decir yolov8n.pt
y están preentrenados en COCO.
Modelos
YOLOv8 Aquí se muestran los modelos Detectar preentrenados. Los modelos Detectar, Segmentar y Pose están preentrenados en el conjunto de datos COCO, mientras que los modelos Clasificar están preentrenados en el conjunto de datos ImageNet.
Los modelos se descargan automáticamente de la últimaversión de Ultralytics la primera vez que se utilizan.
Modelo | tamaño (píxeles) |
mAPval 50-95 |
Velocidad CPU ONNX (ms) |
Velocidad A100 TensorRT (ms) |
parámetros (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
YOLOv8s | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
YOLOv8m | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
YOLOv8l | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
YOLOv8x | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
- mAPval son para un modelo de escala única en COCO val2017 conjunto de datos.
Reproducir poryolo val detect data=coco.yaml device=0
- Velocidad promediada sobre las imágenes COCO val utilizando un Amazon EC2 P4d instancia.
Reproducir poryolo val detect data=coco8.yaml batch=1 device=0|cpu
Tren
Entrena YOLOv8n en el conjunto de datos COCO8 durante 100 épocas con un tamaño de imagen de 640. Para ver la lista completa de argumentos disponibles, consulta la página Configuración.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.yaml") # build a new model from YAML
model = YOLO("yolov8n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
Formato del conjunto de datos
YOLO El formato del conjunto de datos de detección se puede consultar en detalle en la Guía del conjunto de datos. Para convertir tu conjunto de datos existente de otros formatos (como COCO, etc.) al formato YOLO , utiliza la herramienta JSON2YOLO de Ultralytics.
Val
Valida la precisión del modelo entrenado YOLOv8n en el conjunto de datos COCO8. No es necesario pasar ningún argumento como model
conserva su formación data
y argumentos como atributos del modelo.
Ejemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Predecir
Utiliza un modelo YOLOv8n entrenado para realizar predicciones sobre las imágenes.
Ejemplo
Ver todo predict
detalles del modo en el Predecir página.
Exportar
Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc.
Ejemplo
Los formatos de exportación disponibles de YOLOv8 están en la tabla siguiente. Puedes exportar a cualquier formato utilizando el botón format
argumento, es decir format='onnx'
o format='engine'
. Puedes predecir o validar directamente los modelos exportados, es decir. yolo predict model=yolov8n.onnx
. Se muestran ejemplos de uso de tu modelo una vez finalizada la exportación.
Formato | format Argumento |
Modelo | Metadatos | Argumentos |
---|---|---|---|---|
PyTorch | - | yolov8n.pt |
✅ | - |
TorchScript | torchscript |
yolov8n.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolov8n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolov8n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolov8n.tflite |
✅ | imgsz , half , int8 , batch |
TF Arista TPU | edgetpu |
yolov8n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolov8n_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n_paddle_model/ |
✅ | imgsz , batch |
NCNN | ncnn |
yolov8n_ncnn_model/ |
✅ | imgsz , half , batch |
Ver todo export
detalles en el Exportar página.
PREGUNTAS FRECUENTES
¿Cómo entreno un modelo YOLOv8 en mi conjunto de datos personalizado?
Entrenar un modelo YOLOv8 en un conjunto de datos personalizado implica unos cuantos pasos:
- Prepara el conjunto de datos: Asegúrate de que tu conjunto de datos tiene el formato YOLO . Para más información, consulta nuestra Guía del conjunto de datos.
- Carga el modelo: Utiliza la biblioteca Ultralytics YOLO para cargar un modelo preentrenado o crear un nuevo modelo a partir de un archivo YAML.
- Entrenar al modelo: Ejecuta el
train
en Python o el métodoyolo detect train
comando en CLI.
Ejemplo
Para conocer en detalle las opciones de configuración, visita la página Configuración.
¿Qué modelos preentrenados están disponibles en YOLOv8?
Ultralytics YOLOv8 ofrece varios modelos preentrenados para la detección de objetos, la segmentación y la estimación de la pose. Estos modelos están preentrenados en el conjunto de datos COCO o ImageNet para tareas de clasificación. He aquí algunos de los modelos disponibles:
Para ver una lista detallada y las métricas de rendimiento, consulta la sección Modelos.
¿Cómo puedo validar la precisión de mi modelo entrenado YOLOv8 ?
Para validar la precisión de tu modelo entrenado YOLOv8 , puedes utilizar la función .val()
en Python o el método yolo detect val
en CLI. Esto proporcionará métricas como mAP50-95, mAP50 y más.
Ejemplo
Para más detalles sobre la validación, visita la página Val.
¿A qué formatos puedo exportar un modelo de YOLOv8 ?
Ultralytics YOLOv8 permite exportar modelos a varios formatos, como ONNX, TensorRT, CoreML, y más, para garantizar la compatibilidad en diferentes plataformas y dispositivos.
Ejemplo
Consulta la lista completa de formatos compatibles y las instrucciones en la página Exportar.
¿Por qué debería utilizar Ultralytics YOLOv8 para la detección de objetos?
Ultralytics YOLOv8 está diseñado para ofrecer un rendimiento de vanguardia en la detección de objetos, la segmentación y la estimación de la pose. He aquí algunas ventajas clave:
- Modelos preentrenados: Utiliza modelos preentrenados en conjuntos de datos populares como COCO e ImageNet para un desarrollo más rápido.
- Gran Precisión: Alcanza puntuaciones mAP impresionantes, garantizando una detección de objetos fiable.
- Velocidad: Optimizado para la inferencia en tiempo real, lo que lo hace ideal para aplicaciones que requieren un procesamiento rápido.
- Flexibilidad: Exporta modelos a varios formatos como ONNX y TensorRT para desplegarlos en múltiples plataformas.
Explora nuestro Blog para ver casos de uso e historias de éxito que muestran YOLOv8 en acción.