Zum Inhalt springen

YOLOv5 Schnellstart 🚀

Beginnen Sie Ihre Reise in das dynamische Reich der Echtzeit-Objekterkennung mit Ultralytics YOLOv5! Dieser Leitfaden ist als umfassender Ausgangspunkt für KI-Enthusiasten und Fachleute gedacht, die YOLOv5 beherrschen wollen. Von der Ersteinrichtung bis hin zu fortgeschrittenen Trainingstechniken haben wir alles für Sie vorbereitet. Am Ende dieses Leitfadens werden Sie das Wissen haben, um YOLOv5 mit Hilfe modernster Deep-Learning-Methoden sicher in Ihre Projekte zu implementieren. Lassen Sie uns die Motoren zünden und in YOLOv5 eintauchen!

Installieren Sie

Bereiten Sie den Start vor, indem Sie das YOLOv5 klonen und die Umgebung einrichten. Dadurch wird sichergestellt, dass alle notwendigen Anforderungen installiert sind. Stellen Sie sicher, dass Sie über Python.8.0 und PyTorch.8 startklar sind. Diese grundlegenden Werkzeuge sind entscheidend für den effektiven Einsatz von YOLOv5 .

git clone https://github.com/ultralytics/yolov5 # clone repository
cd yolov5
pip install -r requirements.txt # install dependencies

Ableitung mit PyTorch Hub

Erleben Sie die Einfachheit der YOLOv5 PyTorch Hub Inferenz, bei der die Modelle nahtlos von der neuesten YOLOv5 Version heruntergeladen werden. Diese Methode nutzt die Leistungsfähigkeit von PyTorch für ein einfaches Laden und Ausführen von Modellen, so dass Vorhersagen ganz einfach erstellt werden können.

import torch

# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s")  # Can be 'yolov5n' - 'yolov5x6', or 'custom'

# Inference on images
img = "https://ultralytics.com/images/zidane.jpg"  # Can be a file, Path, PIL, OpenCV, numpy, or list of images

# Run inference
results = model(img)

# Display results
results.print()  # Other options: .show(), .save(), .crop(), .pandas(), etc. Explore these in the Predict mode documentation.

Inferenz mit detect.py

Gurtzeug detect.py für vielseitige Inferenz über verschiedene Quellen. Es holt automatisch Modelle vom neuesten YOLOv5 freigeben und speichert die Ergebnisse mit Leichtigkeit. Dieses Skript ist ideal für die Verwendung auf der Kommandozeile und die Integration von YOLOv5 in größere Systeme und unterstützt Eingaben wie Bilder, Videos, Verzeichnisse, Webcams und sogar Livestreams.

python detect.py --weights yolov5s.pt --source 0                              # webcam
python detect.py --weights yolov5s.pt --source image.jpg                      # image
python detect.py --weights yolov5s.pt --source video.mp4                      # video
python detect.py --weights yolov5s.pt --source screen                         # screenshot
python detect.py --weights yolov5s.pt --source path/                          # directory
python detect.py --weights yolov5s.pt --source list.txt                       # list of images
python detect.py --weights yolov5s.pt --source list.streams                   # list of streams
python detect.py --weights yolov5s.pt --source 'path/*.jpg'                   # glob pattern
python detect.py --weights yolov5s.pt --source 'https://youtu.be/LNwODJXcvt4' # YouTube video
python detect.py --weights yolov5s.pt --source 'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream

Ausbildung

Replizieren Sie die YOLOv5 COCO-Datensatz Benchmarks durch Befolgung der Schulungshinweise unten. Die notwendigen Modelle und Datensätze (wie coco128.yaml oder die vollständige coco.yaml) werden direkt aus der neuesten YOLOv5 freigeben. Schulung von YOLOv5n/s/m/l/x auf einem V100 GPU sollte normalerweise 1/2/4/6/8 Tage dauern (beachten Sie, dass GPU Setups arbeiten schneller). Maximieren Sie die Leistung durch Verwendung der höchstmöglichen --batch-size oder verwenden --batch-size -1 für die YOLOv5 AutoBatch Funktion, die automatisch die optimale Lösung findet Chargengröße. Die folgenden Losgrößen sind ideal für V100-16GB GPUs. Siehe auch unser Konfigurationsleitfaden für Details zu Modellkonfigurationsdateien (*.yaml).

# Train YOLOv5n on COCO128 for 3 epochs
python train.py --data coco128.yaml --epochs 3 --weights yolov5n.pt --batch-size 128

# Train YOLOv5s on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5s.yaml --batch-size 64

# Train YOLOv5m on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5m.yaml --batch-size 40

# Train YOLOv5l on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5l.yaml --batch-size 24

# Train YOLOv5x on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5x.yaml --batch-size 16

YOLOv5 mit mAP und Verlustmetriken über Epochen für verschiedene Modellgrößen (n, s, m, l, x) auf dem COCO-Datensatz

Abschließend lässt sich sagen, dass YOLOv5 nicht nur ein hochmodernes Werkzeug für die Objekterkennung ist, sondern auch ein Beweis für die Macht des maschinellen Lernens bei der Veränderung der Art und Weise, wie wir durch visuelles Verständnis mit der Welt interagieren. Wenn Sie diesen Leitfaden durcharbeiten und mit der Anwendung von YOLOv5 in Ihren Projekten beginnen, denken Sie daran, dass Sie an der Spitze einer technologischen Revolution stehen, die in der Lage ist, bemerkenswerte Leistungen in der Computer Vision zu vollbringen. Sollten Sie weitere Einblicke oder Unterstützung von anderen Visionären benötigen, sind Sie herzlich eingeladen, unser GitHub-Repository zu besuchen, das eine blühende Gemeinschaft von Entwicklern und Forschern beherbergt. Erforschen Sie weitere Ressourcen wie Ultralytics HUB für die Verwaltung von Datensätzen und das Training von Modellen ohne Code, oder schauen Sie sich unsere Lösungsseite an, um sich von Anwendungen aus der Praxis inspirieren zu lassen. Bleiben Sie auf Entdeckungsreise, bleiben Sie innovativ und genießen Sie die Wunder von YOLOv5. Viel Spaß beim Entdecken! 🌠🔍

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 15 Tagen

Kommentare