Vai al contenuto

YOLOv5 Avvio rapido 🚀

Intraprendete il vostro viaggio nel regno dinamico del rilevamento di oggetti in tempo reale con Ultralytics YOLOv5! Questa guida è stata realizzata come punto di partenza completo per gli appassionati e i professionisti dell'intelligenza artificiale che desiderano padroneggiare YOLOv5. Dalla configurazione iniziale alle tecniche di addestramento avanzate, abbiamo pensato a voi. Alla fine di questa guida, avrete le conoscenze necessarie per implementare YOLOv5 nei vostri progetti, utilizzando metodi di deep learning all'avanguardia. Accendiamo i motori e libriamoci in YOLOv5!

Installare

Prepararsi al lancio clonando il repositoryYOLOv5 e creando l'ambiente. Questo assicura che tutti i requisiti necessari siano installati. Verificare che siano presenti Python.8.0 e PyTorch.8 pronti al decollo. Questi strumenti fondamentali sono cruciali per eseguire YOLOv5 in modo efficace.

git clone https://github.com/ultralytics/yolov5 # clone repository
cd yolov5
pip install -r requirements.txt # install dependencies

Inferenza con PyTorch Hub

Provate la semplicità dell'inferenza di YOLOv5 PyTorch Hub, dove i modelli vengono scaricati senza problemi dall'ultimarelease di YOLOv5 . Questo metodo sfrutta la potenza di PyTorch per facilitare il caricamento e l'esecuzione dei modelli, rendendo semplice ottenere le previsioni.

import torch

# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s")  # Can be 'yolov5n' - 'yolov5x6', or 'custom'

# Inference on images
img = "https://ultralytics.com/images/zidane.jpg"  # Can be a file, Path, PIL, OpenCV, numpy, or list of images

# Run inference
results = model(img)

# Display results
results.print()  # Other options: .show(), .save(), .crop(), .pandas(), etc. Explore these in the Predict mode documentation.

Inferenza con detect.py

Imbracatura detect.py per la versatilità inferenza su varie fonti. Recupera automaticamente modelli dall'ultimo YOLOv5 rilascio e salva i risultati con facilità. Questo script è ideale per l'uso della riga di comando e per l'integrazione di YOLOv5 in sistemi più grandi, in quanto supporta input come immagini, video, directory, webcam e perfino flussi in diretta.

python detect.py --weights yolov5s.pt --source 0                              # webcam
python detect.py --weights yolov5s.pt --source image.jpg                      # image
python detect.py --weights yolov5s.pt --source video.mp4                      # video
python detect.py --weights yolov5s.pt --source screen                         # screenshot
python detect.py --weights yolov5s.pt --source path/                          # directory
python detect.py --weights yolov5s.pt --source list.txt                       # list of images
python detect.py --weights yolov5s.pt --source list.streams                   # list of streams
python detect.py --weights yolov5s.pt --source 'path/*.jpg'                   # glob pattern
python detect.py --weights yolov5s.pt --source 'https://youtu.be/LNwODJXcvt4' # YouTube video
python detect.py --weights yolov5s.pt --source 'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream

Formazione

Replicare il YOLOv5 Set di dati COCO parametri di riferimento seguendo il istruzioni per la formazione di seguito. Il necessario modelli e set di dati (come coco128.yaml o l'intero coco.yaml) sono estratti direttamente dall'ultimo YOLOv5 rilascio. Formazione di YOLOv5n/s/m/l/x su un V100 GPU dovrebbero in genere richiedere rispettivamente 1/2/4/6/8 giorni (si noti che Formazione GPU le configurazioni funzionano più velocemente). Massimizzare le prestazioni utilizzando il massimo livello possibile di --batch-size o utilizzare --batch-size -1 per il YOLOv5 AutoBatch che trova automaticamente la soluzione ottimale Dimensione del lotto. I seguenti lotti sono ideali per le GPU V100-16GB. Consultare il nostro Guida alla configurazione per i dettagli sui file di configurazione del modello (*.yaml).

# Train YOLOv5n on COCO128 for 3 epochs
python train.py --data coco128.yaml --epochs 3 --weights yolov5n.pt --batch-size 128

# Train YOLOv5s on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5s.yaml --batch-size 64

# Train YOLOv5m on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5m.yaml --batch-size 40

# Train YOLOv5l on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5l.yaml --batch-size 24

# Train YOLOv5x on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5x.yaml --batch-size 16

Le curve di addestramento YOLOv5 mostrano le metriche di mAP e di perdita nel corso delle epoche per diverse dimensioni del modello (n, s, m, l, x) sul dataset COCO.

Per concludere, YOLOv5 non è solo uno strumento all'avanguardia per il rilevamento degli oggetti, ma anche una testimonianza del potere dell'apprendimento automatico nel trasformare il modo in cui interagiamo con il mondo attraverso la comprensione visiva. Mentre procedete con questa guida e iniziate ad applicare YOLOv5 ai vostri progetti, ricordate che siete all'avanguardia di una rivoluzione tecnologica, in grado di raggiungere risultati notevoli nella computer vision. Se avete bisogno di ulteriori approfondimenti o del supporto di altri visionari, siete invitati a visitare il nostro repository GitHub, che ospita una fiorente comunità di sviluppatori e ricercatori. Esplorate altre risorse come Ultralytics HUB per la gestione dei set di dati e l'addestramento dei modelli senza codice, oppure date un'occhiata alla pagina delle soluzioni per trovare applicazioni reali e ispirazione. Continuate a esplorare, a innovare e a godervi le meraviglie di YOLOv5. Buon rilevamento! 🌠🔍

📅C reato 1 anno fa ✏️ Aggiornato 13 giorni fa

Commenti