Vai al contenuto

Integrazioni Ultralytics

Benvenuti nella pagina delle integrazioni di Ultralytics! Questa pagina fornisce una panoramica delle nostre partnership con vari strumenti e piattaforme, progettate per semplificare i tuoi flussi di lavoro di machine learning, migliorare la gestione dei dataset, semplificare il training dei modelli e facilitare un deployment efficiente.

Ecosistema e integrazioni Ultralytics YOLO



Guarda: Deployment e integrazioni di Ultralytics YOLO11

Integrazioni per il training

  • Amazon SageMaker: Sfrutta Amazon SageMaker per costruire, addestrare e distribuire in modo efficiente i modelli Ultralytics, fornendo una piattaforma all-in-one per il ciclo di vita dell'ML.

  • ClearML: Automatizza i tuoi flussi di lavoro ML di Ultralytics, monitora gli esperimenti e promuovi la collaborazione del team.

  • Comet ML: Migliora lo sviluppo del tuo modello con Ultralytics tracciando, confrontando e ottimizzando i tuoi esperimenti di machine learning.

  • DVC: Implementa il controllo della versione per i tuoi progetti di machine learning Ultralytics, sincronizzando efficacemente dati, codice e modelli.

  • Google Colab: Utilizza Google Colab per addestrare e valutare i modelli Ultralytics in un ambiente basato su cloud che supporta la collaborazione e la condivisione.

  • IBM Watsonx: Scopri come IBM Watsonx semplifica l'addestramento e la valutazione dei modelli Ultralytics con i suoi strumenti di intelligenza artificiale all'avanguardia, l'integrazione semplice e il sistema avanzato di gestione dei modelli.

  • JupyterLab: Scopri come utilizzare l'ambiente interattivo e personalizzabile di JupyterLab per addestrare e valutare i modelli Ultralytics con facilità ed efficienza.

  • Kaggle: Esplora come puoi utilizzare Kaggle per addestrare e valutare i modelli Ultralytics in un ambiente basato su cloud con librerie preinstallate, supporto GPU e una vivace comunità per la collaborazione e la condivisione.

  • MLFlow: Semplifica l'intero ciclo di vita ML dei modelli Ultralytics, dalla sperimentazione e riproducibilità al deployment.

  • Neptune: Mantieni un registro completo dei tuoi esperimenti di ML con Ultralytics in questo archivio di metadati progettato per MLOps.

  • Paperspace Gradient: Paperspace Gradient semplifica il lavoro sui progetti YOLO11 fornendo strumenti cloud facili da usare per l'addestramento, il test e la distribuzione rapida dei tuoi modelli.

  • Ray Tune: Ottimizza gli iperparametri dei tuoi modelli Ultralytics su qualsiasi scala.

  • TensorBoard: Visualizza i tuoi flussi di lavoro ML di Ultralytics, monitora le metriche del modello e promuovi la collaborazione del team.

  • Ultralytics HUB: Accedi e contribuisci a una community di modelli Ultralytics pre-addestrati.

  • Weights & Biases (W&B): Monitora gli esperimenti, visualizza le metriche e promuovi la riproducibilità e la collaborazione sui progetti Ultralytics.

  • VS Code: Un'estensione per VS Code che fornisce frammenti di codice per accelerare i flussi di lavoro di sviluppo con Ultralytics e anche per chiunque cerchi esempi per imparare o iniziare a usare Ultralytics.

  • Albumentations: Migliora i tuoi modelli Ultralytics con potenti aumenti di immagini per migliorare la robustezza e la generalizzazione del modello.

Integrazioni per il deployment

  • TorchScript: Sviluppato come parte del framework PyTorch, TorchScript consente l'esecuzione e la distribuzione efficiente di modelli di machine learning in vari ambienti di produzione senza la necessità di dipendenze Python.

  • ONNX: Un formato open-source creato da Microsoft per facilitare il trasferimento di modelli AI tra vari framework, migliorando la versatilità e la flessibilità di distribuzione dei modelli Ultralytics.

  • OpenVINO: Il toolkit di Intel per ottimizzare e distribuire in modo efficiente i modelli di computer vision su varie piattaforme Intel CPU e GPU.

  • TensorRT: Sviluppato da NVIDIA, questo framework di inferenza di deep learning ad alte prestazioni e formato di modello ottimizza i modelli AI per velocità ed efficienza accelerate sulle GPU NVIDIA, garantendo una distribuzione semplificata.

  • CoreML: CoreML, sviluppato da Apple, è un framework progettato per integrare in modo efficiente i modelli di machine learning nelle applicazioni su iOS, macOS, watchOS e tvOS, utilizzando l'hardware di Apple per una distribuzione del modello efficace e sicura.

  • TF SavedModel: Sviluppato da Google, TF SavedModel è un formato di serializzazione universale per i modelli TensorFlow, che consente una facile condivisione e distribuzione su una vasta gamma di piattaforme, dai server ai dispositivi edge.

  • TF GraphDef: Sviluppato da Google, GraphDef è il formato di TensorFlow per rappresentare grafi di calcolo, consentendo l'esecuzione ottimizzata di modelli di machine learning su hardware diversi.

  • TFLite: Sviluppato da Google, TFLite è un framework leggero per la distribuzione di modelli di machine learning su dispositivi mobili ed edge, garantendo un'inferenza rapida ed efficiente con un minimo ingombro di memoria.

  • TFLite Edge TPU: Sviluppato da Google per l'ottimizzazione dei modelli TensorFlow Lite su Edge TPU, questo formato di modello garantisce un edge computing efficiente e ad alta velocità.

  • TF.js: Sviluppato da Google per facilitare il machine learning nei browser e in Node.js, TF.js consente la distribuzione di modelli ML basati su JavaScript.

  • PaddlePaddle: Una piattaforma di deep learning open-source di Baidu, PaddlePaddle consente la distribuzione efficiente di modelli AI e si concentra sulla scalabilità delle applicazioni industriali.

  • MNN: Sviluppato da Alibaba, MNN è un framework di deep learning altamente efficiente e leggero. Supporta l'inferenza e l'addestramento di modelli di deep learning e offre prestazioni leader del settore per l'inferenza e l'addestramento on-device.

  • NCNN: Sviluppato da Tencent, NCNN è un framework di inferenza di reti neurali efficiente, progettato per dispositivi mobili. Consente la distribuzione diretta di modelli AI nelle app, ottimizzando le prestazioni su varie piattaforme mobili.

  • SONY IMX500 🚀 NOVITÀ: Ottimizza e distribuisci i modelli Ultralytics YOLOv8 su Raspberry Pi AI Cameras con il sensore IMX500 per prestazioni rapide e a basso consumo.

  • Rockchip RKNN: Sviluppato da Rockchip, RKNN è un framework di inferenza di rete neurale specializzato, ottimizzato per le piattaforme hardware di Rockchip, in particolare le loro NPU. Facilita l'implementazione efficiente di modelli di IA su dispositivi edge, consentendo un'inferenza ad alte prestazioni in applicazioni in tempo reale.

  • Neural Magic: Sfrutta le tecniche di Quantization Aware Training (QAT) e pruning per ottimizzare i modelli Ultralytics per prestazioni superiori e dimensioni più snelle.

  • Seeed Studio reCamera: Sviluppata da Seeed Studio, reCamera è un dispositivo edge AI all'avanguardia progettato per applicazioni di computer vision in tempo reale. Alimentato dal processore SG200X basato su RISC-V, offre inferenza AI ad alte prestazioni con efficienza energetica. Il suo design modulare, le capacità avanzate di elaborazione video e il supporto per un'implementazione flessibile lo rendono una scelta ideale per vari casi d'uso, tra cui il monitoraggio della sicurezza, le applicazioni ambientali e la produzione.

  • Gradio: Distribuisci i modelli Ultralytics con Gradio per demo interattive di object detection in tempo reale.

Integrazioni di dataset

  • Roboflow: Facilita l'etichettatura e la gestione dei set di dati per i modelli Ultralytics, offrendo strumenti di annotazione per etichettare le immagini.

Formati di esportazione

Supportiamo anche una varietà di formati di esportazione dei modelli per la distribuzione in diversi ambienti. Ecco i formati disponibili:

Formato format Argomento Modello Metadati Argomenti
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

Consulta i link per saperne di più su ciascuna integrazione e su come sfruttarle al meglio con Ultralytics. Vedi la export dettagli nella Esportazione pagina.

Contribuisci alle nostre integrazioni

Siamo sempre entusiasti di vedere come la comunità integra Ultralytics YOLO con altre tecnologie, strumenti e piattaforme! Se hai integrato con successo YOLO con un nuovo sistema o hai preziose informazioni da condividere, considera di contribuire alla nostra documentazione sulle integrazioni.

Scrivendo una guida o un tutorial, puoi contribuire ad ampliare la nostra documentazione e fornire esempi reali a vantaggio della community. È un modo eccellente per contribuire al crescente ecosistema intorno a Ultralytics YOLO.

Per contribuire, consulta la nostra Guida per i contributori per istruzioni su come inviare una Pull Request (PR) 🛠️. Attendiamo con impazienza i tuoi contributi!

Collaboriamo per rendere l'ecosistema Ultralytics YOLO più ampio e ricco di funzionalità 🙏!

FAQ

Cos'è Ultralytics HUB e come semplifica il flusso di lavoro di ML?

Ultralytics HUB è una piattaforma basata su cloud progettata per rendere i flussi di lavoro di machine learning per i modelli Ultralytics fluidi ed efficienti. Utilizzando questo strumento, puoi facilmente caricare dataset, addestrare modelli, eseguire il tracciamento in tempo reale e distribuire modelli YOLO senza bisogno di estese competenze di programmazione. La piattaforma funge da area di lavoro centralizzata dove puoi gestire l'intera pipeline di ML dalla preparazione dei dati alla distribuzione. Puoi esplorare le funzionalità chiave nella pagina Ultralytics HUB e iniziare rapidamente con la nostra guida Quickstart.

Posso tracciare le prestazioni dei miei modelli Ultralytics utilizzando MLFlow?

Sì, è possibile. L'integrazione di MLFlow con i modelli Ultralytics consente di tracciare gli esperimenti, migliorare la riproducibilità e ottimizzare l'intero ciclo di vita dell'ML. Istruzioni dettagliate per configurare questa integrazione sono disponibili nella pagina di integrazione di MLFlow. Questa integrazione è particolarmente utile per monitorare le metriche del modello, confrontare diverse esecuzioni di training e gestire in modo efficiente il flusso di lavoro dell'ML. MLFlow fornisce una piattaforma centralizzata per registrare parametri, metriche e artefatti, rendendo più facile comprendere il comportamento del modello e apportare miglioramenti basati sui dati.

Quali sono i vantaggi dell'utilizzo di Neural Magic per l'ottimizzazione del modello YOLO11?

Neural Magic ottimizza i modelli YOLO11 sfruttando tecniche come il Quantization Aware Training (QAT) e la potatura, ottenendo modelli più piccoli e altamente efficienti che funzionano meglio su hardware con risorse limitate. Consulta la pagina di integrazione di Neural Magic per scoprire come implementare queste ottimizzazioni per prestazioni superiori e modelli più snelli. Ciò è particolarmente vantaggioso per la distribuzione su dispositivi edge dove le risorse computazionali sono limitate. Il motore DeepSparse di Neural Magic può offrire un'inferenza fino a 6 volte più veloce sulle CPU, rendendo possibile l'esecuzione di modelli complessi senza hardware specializzato.

Come posso eseguire il deployment dei modelli Ultralytics YOLO con Gradio per demo interattive?

Per distribuire i modelli Ultralytics YOLO con Gradio per demo interattive di object detection, puoi seguire i passaggi descritti nella pagina di integrazione di Gradio. Gradio ti consente di creare interfacce web facili da usare per l'inferenza del modello in tempo reale, rendendolo uno strumento eccellente per mostrare le capacità del tuo modello YOLO in un formato intuitivo adatto sia agli sviluppatori che agli utenti finali. Con poche righe di codice, puoi creare applicazioni interattive che dimostrano le prestazioni del tuo modello su input personalizzati, facilitando una migliore comprensione e valutazione delle tue soluzioni di computer vision.



📅 Creato 1 anno fa ✏️ Aggiornato 7 giorni fa

Commenti