Vai al contenuto

Tutorial completi per Ultralytics YOLO

Benvenuti nelle guide di Ultralytics'YOLO 🚀! Le nostre esercitazioni complete coprono vari aspetti del modello dirilevamento degli oggetti di YOLO , dall'addestramento e dalla previsione all'implementazione. Costruito su PyTorchYOLO si distingue per la sua eccezionale velocità e precisione nelle attività di rilevamento degli oggetti in tempo reale.

Che siate principianti o esperti di deep learning, le nostre esercitazioni offrono spunti preziosi per l'implementazione e l'ottimizzazione di YOLO per i vostri progetti di computer vision. Immergiamoci!



Guarda: Ultralytics YOLO11 Panoramica delle guide

Guide

Ecco una raccolta di guide approfondite per aiutarvi a padroneggiare diversi aspetti di Ultralytics YOLO .

  • YOLO Problemi comuni ⭐ CONSIGLIATO: Soluzioni pratiche e suggerimenti per la risoluzione dei problemi più frequenti quando si lavora con i modelli Ultralytics YOLO .
  • YOLO Metriche delle prestazioni ⭐ ESSENZIALE: comprendere le metriche chiave come mAP, IoU e punteggio F1 utilizzate per valutare le prestazioni dei modelli YOLO . Include esempi pratici e suggerimenti su come migliorare l'accuratezza e la velocità di rilevamento.
  • Opzioni di distribuzione dei modelli: Panoramica dei formatidi distribuzione del modello YOLO , come ONNX, OpenVINO e TensorRT, con i pro e i contro di ciascuno per informare la vostra strategia di distribuzione.
  • Convalida incrociata K-Fold 🚀 NUOVO: Imparate a migliorare la generalizzazione dei modelli utilizzando la tecnica di convalida incrociata K-Fold.
  • Regolazione degli iperparametri 🚀 NUOVO: Scoprite come ottimizzare i vostri modelli YOLO attraverso la regolazione fine degli iperparametri utilizzando la classe Tuner e gli algoritmi di evoluzione genetica.
  • SAHI Tiled Inference 🚀 NUOVO: Guida completa sull'utilizzo delle capacità di inferenza a fette di SAHI con YOLO11 per il rilevamento di oggetti in immagini ad alta risoluzione.
  • AzureML Quickstart 🚀 NOVITÀ: Iniziare a lavorare con i modelli Ultralytics YOLO sulla piattaforma Azure Machine Learning di Microsoft. Scoprite come addestrare, distribuire e scalare i vostri progetti di rilevamento degli oggetti nel cloud.
  • Conda Quickstart 🚀 NUOVO: Guida passo-passo alla configurazione di un ambiente Conda per Ultralytics. Imparate a installare e iniziare a usare il pacchetto Ultralytics in modo efficiente con Conda.
  • Docker Quickstart 🚀 NUOVO: Guida completa all'impostazione e all'uso dei modelli Ultralytics YOLO con Docker. Imparate a installare Docker, a gestire il supporto di GPU e a eseguire i modelli YOLO in contenitori isolati per uno sviluppo e una distribuzione coerenti.
  • Raspberry Pi 🚀 NUOVO: Tutorial di avvio rapido per eseguire i modelli YOLO sull'ultimo hardware Raspberry Pi.
  • NVIDIA Jetson 🚀 NUOVO: Guida rapida per la distribuzione dei modelli YOLO sui dispositivi NVIDIA Jetson.
  • DeepStream su NVIDIA Jetson 🚀 NUOVO: Guida rapida per la distribuzione di modelli YOLO su dispositivi NVIDIA Jetson utilizzando DeepStream e TensorRT.
  • Triton Inference Server Integration 🚀 NEW: Approfondite l'integrazione di Ultralytics YOLO11 con NVIDIA's Triton Inference Server per implementazioni scalabili ed efficienti dell'inferenza di deep learning.
  • YOLO Thread-Safe Inference 🚀 NUOVO: Linee guida per eseguire l'inferenza con i modelli YOLO in modo thread-safe. Imparate l'importanza della sicurezza dei thread e le migliori pratiche per prevenire le condizioni di gara e garantire previsioni coerenti.
  • Isolare gli oggetti della segmentazione 🚀 NUOVO: ricetta e spiegazione passo-passo su come estrarre e/o isolare gli oggetti dalle immagini utilizzando Ultralytics Segmentation.
  • Edge TPU su Raspberry Pi: Google Edge TPU accelera l'inferenza di YOLO su Raspberry Pi.
  • Visualizzazione delle immagini di inferenza in un terminale: Usare il terminale integrato di VSCode per visualizzare i risultati dell'inferenza quando si usano le sessioni Remote Tunnel o SSH.
  • OpenVINO Modalità di latenza e di throughput - Imparare le tecniche di ottimizzazione della latenza e del throughput per ottenere le massime prestazioni di inferenza di YOLO .
  • Fasi di un progetto di visione computerizzata 🚀 NOVITÀ: Imparate le fasi principali di un progetto di visione computerizzata, tra cui la definizione degli obiettivi, la selezione dei modelli, la preparazione dei dati e la valutazione dei risultati.
  • Definizione degli obiettivi di un progetto di visione artificiale 🚀 NUOVO: Scoprite come definire in modo efficace obiettivi chiari e misurabili per il vostro progetto di visione artificiale. Scoprite l'importanza di una dichiarazione del problema ben definita e come questa crea una tabella di marcia per il vostro progetto.
  • Raccolta e annotazione dei dati 🚀 NUOVO: esplorate gli strumenti, le tecniche e le migliori pratiche per la raccolta e l'annotazione dei dati per creare input di alta qualità per i vostri modelli di computer vision.
  • Preelaborazione dei dati annotati 🚀 NUOVO: Imparate a preelaborare e ad aumentare i dati delle immagini nei progetti di computer vision utilizzando YOLO11, tra cui la normalizzazione, l'aumento del set di dati, la suddivisione e l'analisi esplorativa dei dati (EDA).
  • Suggerimenti per l'addestramento del modello 🚀 NOVITÀ: esplorate i suggerimenti sull'ottimizzazione delle dimensioni dei batch, sull'uso della precisione mista, sull'applicazione di pesi pre-addestrati e altro ancora per rendere l'addestramento del modello di computer vision un gioco da ragazzi.
  • Approfondimenti sulla valutazione e la messa a punto dei modelli 🚀 NUOVO: Approfondite le strategie e le migliori pratiche per la valutazione e la messa a punto dei modelli di computer vision. Scoprite il processo iterativo di perfezionamento dei modelli per ottenere risultati ottimali.
  • Guida al collaudo dei modelli 🚀 NUOVO: Una guida approfondita sul collaudo dei modelli di computer vision in ambienti realistici. Imparate a verificare l'accuratezza, l'affidabilità e le prestazioni in linea con gli obiettivi del progetto.
  • Best Practices for Model Deployment 🚀 NUOVO: suggerimenti e best practice per una distribuzione efficiente dei modelli nei progetti di computer vision, con particolare attenzione all'ottimizzazione, alla risoluzione dei problemi e alla sicurezza.
  • Manutenzione del modello di computer vision 🚀 NUOVO: comprendere le pratiche chiave per il monitoraggio, la manutenzione e la documentazione dei modelli di computer vision per garantire l'accuratezza, individuare le anomalie e ridurre la deriva dei dati.
  • ROS Quickstart 🚀 NUOVO: Imparate a integrare YOLO con il Robot Operating System (ROS) per il rilevamento di oggetti in tempo reale nelle applicazioni robotiche, comprese le immagini a nuvola di punti e in profondità.

Contribuire alle nostre guide

Siamo lieti di ricevere contributi dalla comunità! Se avete imparato un aspetto particolare di Ultralytics YOLO che non è ancora stato trattato nelle nostre guide, vi invitiamo a condividere la vostra esperienza. Scrivere una guida è un ottimo modo per dare un contributo alla comunità e aiutarci a rendere la nostra documentazione più completa e facile da usare.

Per iniziare, leggete la nostra Guida alla contribuzione per le linee guida su come aprire una richiesta di pull (PR) 🛠️. Saremo lieti di ricevere i vostri contributi!

Lavoriamo insieme per rendere l'ecosistema di Ultralytics YOLO più robusto e versatile 🙏!

FAQ

Come si addestra un modello di rilevamento degli oggetti personalizzato utilizzando Ultralytics YOLO ?

L'addestramento di un modello personalizzato di rilevamento degli oggetti con Ultralytics YOLO è semplice. Si inizia preparando il set di dati nel formato corretto e installando il pacchetto Ultralytics . Utilizzare il seguente codice per avviare l'addestramento:

Esempio

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Per una formattazione dettagliata del set di dati e per ulteriori opzioni, consultare la guida Suggerimenti per la formazione dei modelli.

Quali metriche di performance devo utilizzare per valutare il mio modello YOLO ?

La valutazione delle prestazioni del modello YOLO è fondamentale per comprenderne l'efficacia. Le metriche chiave includono la precisione media (mAP), l'intersezione sull'unione (IoU) e il punteggio F1. Queste metriche aiutano a valutare l'accuratezza e la precisione delle attività di rilevamento degli oggetti. Per saperne di più su queste metriche e su come migliorare il modello, consultare la nostra guida alle metriche delle prestazioni diYOLO .

Perché dovrei utilizzare Ultralytics HUB per i miei progetti di computer vision?

Ultralytics HUB è una piattaforma no-code che semplifica la gestione, la formazione e la distribuzione dei modelli YOLO . Supporta un'integrazione perfetta, il monitoraggio in tempo reale e la formazione nel cloud, rendendola ideale sia per i principianti che per i professionisti. Scoprite le sue caratteristiche e come può ottimizzare il vostro flusso di lavoro con la nostra guida rapida a Ultralytics HUB.

Quali sono i problemi più comuni che si incontrano durante la formazione sui modelli YOLO e come si possono risolvere?

I problemi più comuni durante l'addestramento del modello YOLO includono errori di formattazione dei dati, mancata corrispondenza dell'architettura del modello e dati di addestramento insufficienti. Per risolvere questi problemi, è necessario assicurarsi che il set di dati sia formattato correttamente, verificare la presenza di versioni del modello compatibili e aumentare i dati di addestramento. Per un elenco completo di soluzioni, consultare la guida YOLO Common Issues.

Come posso distribuire il mio modello YOLO per il rilevamento degli oggetti in tempo reale sui dispositivi edge?

La distribuzione dei modelli YOLO su dispositivi edge come NVIDIA Jetson e Raspberry Pi richiede la conversione del modello in un formato compatibile come TensorRT o TFLite. Seguite le nostre guide passo passo per le implementazioni di NVIDIA Jetson e Raspberry Pi per iniziare a rilevare gli oggetti in tempo reale sull'hardware edge. Queste guide vi guideranno attraverso l'installazione, la configurazione e l'ottimizzazione delle prestazioni.

📅C reato 1 anno fa ✏️ Aggiornato 2 mesi fa

Commenti