Erste Schritte mit YOLOv5 🚀 in Docker
Dieses Tutorial führt dich durch die Einrichtung und den Betrieb von YOLOv5 in einem Docker-Container.
Du kannst auch andere Schnellstartoptionen für YOLOv5 erkunden, wie zum Beispiel unsere Colab Notebook , GCP Deep Learning VM, und Amazon AWS.
Voraussetzungen
- NVIDIA Treiber: Version 455.23 oder höher. Download von der WebsiteNvidia.
- NVIDIA-Docker: Ermöglicht Docker die Interaktion mit deinem lokalen GPU. Installationsanweisungen sind auf dem NVIDIA-Docker GitHub Repository verfügbar.
- Docker Engine - CE: Version 19.03 oder höher. Download- und Installationsanweisungen findest du auf der Docker-Website.
Schritt 1: Ziehe das YOLOv5 Docker Image
Das Ultralytics YOLOv5 DockerHub Repository ist verfügbar unter https://hub.docker.com/r/ultralytics/yolov5. Docker Autobuild stellt sicher, dass die ultralytics/yolov5:latest
Image ist immer mit dem neuesten Repository Commit synchronisiert. Um das neueste Image zu beziehen, führe den folgenden Befehl aus:
Schritt 2: Starte den Docker Container
Grundcontainer:
Starte eine interaktive Instanz des YOLOv5 Docker-Images (genannt "Container") mit der -it
Flagge:
Container mit lokalem Dateizugriff:
Um einen Container mit Zugriff auf lokale Dateien zu betreiben (z. B. COCO-Trainingsdaten in /datasets
), verwenden Sie die -v
Flagge:
Container mit GPU Zugang:
Um einen Container mit GPU Zugriff zu betreiben, verwendest du die --gpus all
Flagge:
Schritt 3: YOLOv5 🚀 innerhalb des Docker Containers verwenden
Jetzt kannst du YOLOv5 Modelle innerhalb des laufenden Docker-Containers trainieren, testen, erkennen und exportieren:
# Train a model on your data
python train.py
# Validate the trained model for Precision, Recall, and mAP
python val.py --weights yolov5s.pt
# Run inference using the trained model on your images or videos
python detect.py --weights yolov5s.pt --source path/to/images
# Export the trained model to other formats for deployment
python export.py --weights yolov5s.pt --include onnx coreml tflite