Começar a utilizar o YOLOv5 🚀 no Docker
Este tutorial irá guiá-lo através do processo de configuração e execução do YOLOv5 num contentor Docker.
Também pode explorar outras opções de início rápido para YOLOv5, como o nosso Caderno de notas Colab , VM de aprendizagem profunda do GCPe Amazon AWS.
Pré-requisitos
- NVIDIA Controlador: Versão 455.23 ou superior. Transferir a partir do sítio WebNVIDIA.
- NVIDIA-Docker: Permite que o Docker interaja com seu local GPU. As instruções de instalação estão disponíveis no repositório do GitHubNVIDIA-Docker.
- Motor Docker - CE: Versão 19.03 ou superior. As instruções de download e instalação podem ser encontradas no site do Docker.
Etapa 1: puxar a imagem do Docker YOLOv5
O repositório Ultralytics YOLOv5 DockerHub está disponível em https://hub.docker.com/r/ultralytics/yolov5. O Docker Autobuild garante que o ultralytics/yolov5:latest
está sempre em sincronia com o commit mais recente do repositório. Para obter a imagem mais recente, execute o seguinte comando:
Passo 2: Executar o contentor Docker
Contentor de base:
Execute uma instância interactiva da imagem Docker YOLOv5 (designada por "contentor") utilizando o -it
bandeira:
Contentor com acesso a ficheiros locais:
Para executar um contentor com acesso a ficheiros locais (por exemplo, COCO dados de treino em /datasets
), utilizar o -v
bandeira:
Contentor com acesso GPU :
Para executar um contentor com acesso GPU , utilize o --gpus all
bandeira:
Passo 3: Utilizar YOLOv5 🚀 no contentor Docker
Agora pode treinar, testar, detetar e exportar modelos YOLOv5 dentro do contentor Docker em execução:
# Train a model on your data
python train.py
# Validate the trained model for Precision, Recall, and mAP
python val.py --weights yolov5s.pt
# Run inference using the trained model on your images or videos
python detect.py --weights yolov5s.pt --source path/to/images
# Export the trained model to other formats for deployment
python export.py --weights yolov5s.pt --include onnx coreml tflite