Vai al contenuto

Tutorial completi per Ultralytics YOLO

Benvenuti alle guide di Ultralytics' YOLO 🚀! I nostri tutorial completi trattano vari aspetti del modello di object detection YOLO, dalla formazione e previsione all'implementazione. Costruito su PyTorch, YOLO si distingue per la sua eccezionale velocità e precisione nelle attività di rilevamento di oggetti in tempo reale.

Che tu sia un principiante o un esperto nel deep learning, i nostri tutorial offrono preziose informazioni sull'implementazione e l'ottimizzazione di YOLO per i tuoi progetti di computer vision. Iniziamo!



Guarda: Panoramica delle guide di Ultralytics YOLO11

Guide

Ecco una raccolta di guide approfondite per aiutarti a padroneggiare diversi aspetti di Ultralytics YOLO.

  • Guida al test dei modelli: una guida completa sul test dei modelli di visione artificiale in contesti realistici. Scopri come verificare l'accuratezza, l'affidabilità e le prestazioni in linea con gli obiettivi del progetto.
  • Guida introduttiva ad AzureML: inizia a utilizzareYOLO Ultralytics sulla piattaforma Azure Machine Learning Microsoft. Scopri come addestrare, distribuire e scalare i tuoi progetti di rilevamento degli oggetti nel cloud.
  • Best practice per l'implementazione dei modelli: scopri i suggerimenti e le best practice per implementare in modo efficiente i modelli nei progetti di visione artificiale, con particolare attenzione all'ottimizzazione, alla risoluzione dei problemi e alla sicurezza.
  • Guida rapida a Conda: guida passo passo alla configurazione di un ambiente Conda per Ultralytics. Scopri come installare e iniziare a utilizzare in modo efficiente il Ultralytics con Conda.
  • Raccolta e annotazione dei dati: scopri gli strumenti, le tecniche e le best practice per la raccolta e l'annotazione dei dati, al fine di creare input di alta qualità per i tuoi modelli di visione artificiale.
  • DeepStream su NVIDIA : Guida rapida per l'implementazione YOLO sui dispositivi NVIDIA utilizzando DeepStream e TensorRT.
  • Definizione degli obiettivi di un progetto di visione artificiale: scopri come definire in modo efficace obiettivi chiari e misurabili per il tuo progetto di visione artificiale. Scopri l'importanza di una descrizione ben definita del problema e come questa possa creare una roadmap per il tuo progetto.
  • Guida rapida a Docker: guida completa alla configurazione e all'utilizzoYOLO Ultralytics con Docker. Scopri come installare Docker, gestire GPU ed eseguire YOLO in container isolati per uno sviluppo e un'implementazione coerenti.
  • Edge TPU su Raspberry Pi: Google Edge TPU accelera l'inferenza YOLO su Raspberry Pi.
  • Ottimizzazione degli iperparametri: scopri come ottimizzare YOLO tuoi YOLO ottimizzando gli iperparametri utilizzando la classe Tuner e gli algoritmi di evoluzione genetica.
  • Approfondimenti sulla valutazione e la messa a punto dei modelli: scopri le strategie e le best practice per valutare e mettere a punto i tuoi modelli di visione artificiale. Scopri il processo iterativo di perfezionamento dei modelli per ottenere risultati ottimali.
  • Isolamento degli oggetti segmentati: procedura dettagliata e spiegazione su come estrarre e/o isolare oggetti dalle immagini utilizzando Ultralytics .
  • Validazione incrociata K-Fold: scopri come migliorare la generalizzazione del modello utilizzando la tecnica di validazione incrociata K-Fold.
  • Manutenzione del modello di visione artificiale: comprendi le pratiche chiave per il monitoraggio, la manutenzione e la documentazione dei modelli di visione artificiale al fine di garantire l'accuratezza, individuare anomalie e mitigare la deriva dei dati.
  • Opzioni di implementazione del modello: Panoramica dei formati di implementazione del modello YOLO come ONNX, OpenVINO e TensorRT, con pro e contro per ciascuno per informare la tua strategia di implementazione.
  • Guida alla configurazione del modello YAML: un'analisi approfondita e completa delle definizioni dell'architettura del modello Ultralytics. Esplora il formato YAML, comprendi il sistema di risoluzione dei moduli e scopri come integrare perfettamente i moduli personalizzati.
  • NVIDIA : Guida rapida per l'implementazione YOLO sui dispositivi NVIDIA .
  • ModalitàOpenVINO e throughputOpenVINO : scopri le tecniche di ottimizzazione della latenza e del throughput per ottenere prestazioni YOLO ottimali.
  • Pre-elaborazione dei dati annotati: scopri come pre-elaborare e potenziare i dati delle immagini nei progetti di visione artificiale utilizzando YOLO11, inclusi normalizzazione, potenziamento dei set di dati, suddivisione e analisi esplorativa dei dati (EDA).
  • Raspberry Pi: tutorial di avvio rapido per eseguire YOLO sull'ultimo hardware Raspberry Pi.
  • ROS Quickstart: Scopri come integrare YOLO il Robot Operating System (ROS) per il rilevamento di oggetti in tempo reale nelle applicazioni robotiche, comprese le immagini Point Cloud e Depth.
  • Inferenza SAHI Tiled: guida completa su come sfruttare le funzionalità di inferenza segmentata di SAHI con YOLO11 il rilevamento di oggetti in immagini ad alta risoluzione.
  • Fasi di un progetto di visione artificiale: scopri le fasi chiave di un progetto di visione artificiale, tra cui la definizione degli obiettivi, la selezione dei modelli, la preparazione dei dati e la valutazione dei risultati.
  • Suggerimenti per l'addestramento dei modelli: scopri i suggerimenti su come ottimizzare le dimensioni dei batch, utilizzare la precisione mista, applicare pesi pre-addestrati e altro ancora per semplificare l'addestramento del tuo modello di visione artificiale.
  • IntegrazioneTriton Server: scopri l'integrazione di Ultralytics YOLO11 Triton Server NVIDIA per implementazioni di inferenza di deep learning scalabili ed efficienti.
  • Implementazione di Vertex AI con Docker: guida semplificata alla containerizzazione YOLO con Docker e alla loro implementazione su Google Vertex AI, che copre la creazione, il push, l'autoscaling e il monitoraggio.
  • Visualizza le immagini di inferenza in un terminale: Utilizza il terminale integrato di VSCode per visualizzare i risultati dell'inferenza quando utilizzi Remote Tunnel o sessioni SSH.
  • Problemi comuni di YOLO ⭐ CONSIGLIATO: Soluzioni pratiche e suggerimenti per la risoluzione dei problemi più frequenti quando si lavora con i modelli Ultralytics YOLO.
  • YOLO Augmentation: Padroneggia l'intera gamma di tecniche di aumento dei dati in YOLO, dalle trasformazioni di base alle strategie avanzate per migliorare la robustezza e le prestazioni del modello.
  • Metriche di performance di YOLO ⭐ ESSENZIALE: Comprendi le metriche chiave come mAP, IoU e F1 score utilizzate per valutare le prestazioni dei tuoi modelli YOLO. Include esempi pratici e suggerimenti su come migliorare la precisione e la velocità di detect.
  • InferenzaYOLO : linee guida per eseguire inferenze con YOLO in modo thread-safe. Scopri l'importanza della sicurezza dei thread e le best practice per prevenire condizioni di competizione e garantire previsioni coerenti.

Contribuisci alle nostre guide

Accogliamo con favore i contributi della comunità! Se hai acquisito padronanza di un particolare aspetto di Ultralytics YOLO che non è ancora trattato nelle nostre guide, ti invitiamo a condividere la tua esperienza. Scrivere una guida è un ottimo modo per dare qualcosa in cambio alla comunità e aiutarci a rendere la nostra documentazione più completa e facile da usare.

Per iniziare, leggi la nostra Guida per i contributi per le linee guida su come aprire una Pull Request (PR) 🛠️. Non vediamo l'ora di ricevere i tuoi contributi!

Lavoriamo insieme per rendere l'ecosistema Ultralytics YOLO più robusto e versatile 🙏!

FAQ

Come posso addestrare un modello personalizzato di rilevamento oggetti utilizzando Ultralytics YOLO?

Addestrare un modello personalizzato di rilevamento oggetti con Ultralytics YOLO è semplice. Inizia preparando il tuo dataset nel formato corretto e installando il pacchetto Ultralytics. Utilizza il seguente codice per avviare l'addestramento:

Esempio

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Per informazioni dettagliate sulla formattazione del dataset e opzioni aggiuntive, consulta la nostra guida Suggerimenti per l'addestramento del modello.

Quali metriche di performance dovrei usare per valutare il mio modello YOLO?

Valutare le prestazioni del tuo modello YOLO è fondamentale per comprenderne l'efficacia. Le metriche chiave includono la Mean Average Precision (mAP), l'Intersection over Union (IoU) e il punteggio F1. Queste metriche aiutano a valutare l'accuratezza e la precisione delle attività di object detection. Puoi saperne di più su queste metriche e su come migliorare il tuo modello nella nostra guida sulle YOLO Performance Metrics.

Perché dovrei usare Ultralytics HUB per i miei progetti di computer vision?

Ultralytics HUB è una piattaforma no-code che semplifica la gestione, l'addestramento e la distribuzione dei modelli YOLO. Supporta l'integrazione continua, il tracciamento in tempo reale e l'addestramento su cloud, rendendola ideale sia per i principianti che per i professionisti. Scopri di più sulle sue funzionalità e su come può semplificare il tuo flusso di lavoro con la nostra guida rapida Ultralytics HUB.

Quali sono i problemi comuni riscontrati durante l'addestramento del modello YOLO e come posso risolverli?

I problemi comuni durante l'addestramento del modello YOLO includono errori di formattazione dei dati, mancate corrispondenze dell'architettura del modello e dati di addestramento insufficienti. Per risolvere questi problemi, assicurati che il tuo dataset sia formattato correttamente, verifica la presenza di versioni del modello compatibili e aumenta i tuoi dati di addestramento. Per un elenco completo di soluzioni, consulta la nostra guida Problemi comuni di YOLO.

Come posso implementare il mio modello YOLO per il rilevamento di oggetti in tempo reale su dispositivi edge?

La distribuzione di modelli YOLO su dispositivi edge come NVIDIA Jetson e Raspberry Pi richiede la conversione del modello in un formato compatibile come TensorRT o TFLite. Segui le nostre guide dettagliate per le distribuzioni NVIDIA Jetson e Raspberry Pi per iniziare con l'object detection in tempo reale su hardware edge. Queste guide ti guideranno attraverso l'installazione, la configurazione e l'ottimizzazione delle prestazioni.



📅 Creato 2 anni fa ✏️ Aggiornato 1 giorno fa
glenn-jocherRizwanMunawarabirami-vinaBurhan-QlakshanthadY-T-Gvitali.lobanov@pm.mepicsalexUltralyticsAssistantMatthewNoyceambitious-octopus

Commenti