Começa a utilizar o YOLOv5 🚀 no Docker
Este tutorial irá guiar-te através do processo de configuração e execução do YOLOv5 num contentor Docker.
Também podes explorar outras opções de início rápido para YOLOv5, como o nosso Caderno de notas Colab
, VM de aprendizagem profunda do GCPe Amazon AWS.
Pré-requisitos
- NVIDIA Condutor: Versão 455.23 ou superior. Transfere a partir do sítio WebNvidia.
- NVIDIA-Docker: Permite que o Docker interaja com seu GPU local. As instruções de instalação estão disponíveis no repositórioNVIDIA-Docker do GitHub.
- Motor Docker - CE: Versão 19.03 ou superior. As instruções de download e instalação podem ser encontradas no site do Docker.
Etapa 1: puxa a imagem do Docker YOLOv5
O repositório Ultralytics YOLOv5 DockerHub está disponível em https://hub.docker.com/r/ultralytics/yolov5. O Docker Autobuild garante que o ultralytics/yolov5:latest
está sempre em sincronia com o commit mais recente do repositório. Para obter a imagem mais recente, executa o seguinte comando:
Passo 2: Executa o contentor Docker
Contentor básico:
Executa uma instância interactiva da imagem Docker YOLOv5 (designada por "contentor") utilizando o comando -it
bandeira:
Contentor com acesso a ficheiros locais:
Para executar um contentor com acesso a ficheiros locais (por exemplo, dados de treino COCO em /datasets
), utiliza o -v
bandeira:
Contentor com acesso GPU :
Para executar um contentor com acesso GPU , utiliza o --gpus all
bandeira:
Passo 3: Utiliza YOLOv5 🚀 no contentor Docker
Agora podes treinar, testar, detetar e exportar modelos YOLOv5 dentro do contentor Docker em execução:
# Train a model on your data
python train.py
# Validate the trained model for Precision, Recall, and mAP
python val.py --weights yolov5s.pt
# Run inference using the trained model on your images or videos
python detect.py --weights yolov5s.pt --source path/to/images
# Export the trained model to other formats for deployment
python export.py --weights yolov5s.pt --include onnx coreml tflite