Vai al contenuto

Home

Vi presentiamo Ultralytics YOLO26, l'ultima versione dell'acclamato modello per il rilevamento di oggetti e la segmentazione delle immagini in tempo reale. YOLO26 si basa sui progressi nel campo del deep learning e della visione artificiale, offrendo un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge. Il suo design snello lo rende adatto a diverse applicazioni e facilmente adattabile a diverse piattaforme hardware, dai dispositivi edge alle API cloud. Per carichi di lavoro di produzione stabili, sia YOLO26 che YOLO11 .

Esplora la Ultralytics , una risorsa completa pensata per aiutarti a comprendere e sfruttare le sue funzionalità e potenzialità. Che tu sia un professionista esperto nel campo del machine learning o un principiante, questa piattaforma ha lo scopo di aiutarti a sfruttare al massimo il potenziale YOLO nei tuoi progetti.

Richiedi una licenza Enterprise per uso commerciale su Ultralytics .


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

Da dove iniziare

  • Introduzione


    Installa ultralytics con pip e sarà pronto all'uso in pochi minuti per addestrare un YOLO


    Guida rapida

  • Predizione


    Prevedi nuovi contenuti (immagini, video e streaming) con YOLO


    Per saperne di più

  • Addestra un modello


    Addestra un nuovo YOLO partendo da zero sul tuo set di dati personalizzato oppure carica e addestra un modello preaddestrato


    Per saperne di più

  • Scopri le attività di visione artificiale


    Scopri YOLO come detect, segment, classify, il riconoscimento della posa, l'OBB e track


    Esplora le attività

  • 🀗Scopri YOLO26 🚀 NOVITÀ


    Scopri gli ultimi modelli YOLO26 Ultralytics con inferenza NMS e ottimizzazione per l'edge


    Modelli YOLO26 🚀

  • SAM : Segmenta qualsiasi cosa con i concetti 🚀 NOVITÀ


    L'ultima versione di SAM di Meta con la segmentazione concettuale Promptable: segment le istanze utilizzando esempi di testo o immagini


    Modelli SAM

  • Open Source, AGPL-3.0


    Ultralytics due YOLO : AGPL-3.0 Enterprise. Scopri YOLO GitHub.


    YOLO



Guarda: Come addestrare un modello YOLO26 sul proprio set di dati personalizzato in Google Colab.

YOLO: una breve storia

YOLO (You Only Look Once), un popolare modello di rilevamento di oggetti e segmentazione delle immagini, è stato sviluppato da Joseph Redmon e Ali Farhadi presso l'Università di Washington. Lanciato nel 2015, YOLO popolarità grazie alla sua elevata velocità e precisione.

  • YOLOv2, pubblicato nel 2016, ha migliorato il modello originale integrando la normalizzazione per lotti, gli anchor box e i cluster dimensionali.
  • YOLOv3, lanciato nel 2018, ha ulteriormente migliorato le prestazioni del modello grazie all'utilizzo di una rete backbone più efficiente, di più punti di ancoraggio e dello spatial pyramid pooling.
  • YOLOv4 è stato rilasciato nel 2020, introducendo innovazioni quali l'aumento dei dati Mosaic, un nuovo modulo di rilevamento senza ancoraggi e una nuova funzione di perdita.
  • YOLOv5 ha ulteriormente migliorato le prestazioni del modello e ha aggiunto nuove funzionalità quali l'ottimizzazione degli iperparametri, il monitoraggio integrato degli esperimenti e l'esportazione automatica nei formati più diffusi.
  • YOLOv6 è stato reso open source da Meituan nel 2022 ed è utilizzato in molti dei robot di consegna autonomi dell'azienda.
  • YOLOv7 ha aggiunto ulteriori attività, come la stima della posa sul dataset COCO .
  • YOLOv8 lanciato nel 2023 da Ultralytics, ha introdotto nuove funzionalità e miglioramenti per garantire prestazioni, flessibilità ed efficienza ottimizzate, supportando una gamma completa di attività di visione artificiale.
  • YOLOv9 introduce metodi innovativi come il Programmable Gradient Information (PGI) e il Generalized Efficient Layer Aggregation Network (GELAN).
  • YOLOv10 creato dai ricercatori dell'Università di Tsinghua utilizzando il Ultralytics, offre miglioramenti nel rilevamento degli oggetti in tempo reale grazie all'introduzione di un'unità end-to-end che elimina i requisiti della soppressione non massima (NMS).
  • YOLO11: Rilasciato nel settembre 2024, YOLO11 prestazioni eccellenti in molteplici attività, tra cui il rilevamento di oggetti, la segmentazione, la stima della posa, il tracciamento e la classificazione, consentendo l'implementazione in diverse applicazioni e ambiti dell'IA.
  • YOLO26 🚀: YOLO di nuova generazione Ultralytics, ottimizzato per l'implementazione edge con inferenza end-to-end NMS.

YOLO : quali sonoYOLO Ultralytics YOLO ?

Banner della licenza Ultralytics

Ultralytics due opzioni di licenza per soddisfare le diverse esigenze:

  • AGPL-3.0 : questa licenza open source approvata dall'OSI è ideale per studenti e appassionati, poiché promuove la collaborazione aperta e la condivisione delle conoscenze. Per ulteriori dettagli, consultare il file LICENSE.
  • Licenza Enterprise: pensata per l'uso commerciale, questa licenza consente la perfetta integrazione del Ultralytics e dei modelli di IA Ultralytics in prodotti e servizi commerciali, aggirando i requisiti open source della AGPL-3.0. Se il vostro progetto prevede l'integrazione delle nostre soluzioni in un'offerta commerciale, contattate Ultralytics .

La nostra strategia in materia di licenze è pensata per garantire che ogni miglioramento apportato ai nostri progetti open source venga restituito alla comunità. Crediamo nell'open source e la nostra missione è garantire che i nostri contributi possano essere utilizzati e ampliati in modi che vadano a vantaggio di tutti.

L'evoluzione del rilevamento degli oggetti

Il rilevamento degli oggetti ha subito una notevole evoluzione nel corso degli anni, passando dalle tecniche tradizionali di visione artificiale ai modelli avanzati di deep learning. La YOLO di modelliYOLO è stata in prima linea in questa evoluzione, ampliando costantemente i confini di ciò che è possibile realizzare nel campo del rilevamento degli oggetti in tempo reale.

L'approccio unico YOLO considera il rilevamento degli oggetti come un unico problema di regressione, prevedendo i riquadri di delimitazione e le probabilità di classe direttamente dalle immagini complete in un'unica valutazione. Questo metodo rivoluzionario ha reso YOLO notevolmente più veloci rispetto ai precedenti rilevatori a due fasi, pur mantenendo un'elevata precisione.

Con ogni nuova versione, YOLO introdotto miglioramenti architetturali e tecniche innovative che hanno ottimizzato le prestazioni sotto diversi aspetti. YOLO26 prosegue questa tradizione integrando gli ultimi progressi nella ricerca sulla visione artificiale, con un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge computing nelle applicazioni reali.

FAQ

Che cos'è Ultralytics YOLO in che modo migliora il rilevamento degli oggetti?

Ultralytics YOLO l'acclamata serie YOLO You Only Look Once) dedicata al rilevamento di oggetti e alla segmentazione delle immagini in tempo reale. L'ultimo modello, YOLO26, si basa sulle versioni precedenti introducendo un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge. YOLO varie attività di visione artificiale quali rilevamento, segmentazione, stima della posa, tracciamento e classificazione. La sua architettura efficiente garantisce velocità e precisione eccellenti, rendendolo adatto a diverse applicazioni, inclusi dispositivi edge e API cloud.

Come posso iniziare con YOLO e la configurazione YOLO ?

Iniziare a usare YOLO semplice e veloce. Puoi installare il Ultralytics tramite pip ed essere operativo in pochi minuti. Ecco un comando di installazione di base:

Installazione tramite pip

pip install -U ultralytics

Per una guida completa passo dopo passo, visita la nostra pagina "Guida rapida". Questa risorsa ti fornirà istruzioni per l'installazione, la configurazione iniziale e l'esecuzione del tuo primo modello.

Come posso addestrare un YOLO personalizzato sul mio set di dati?

L'addestramento di un YOLO personalizzato sul proprio set di dati richiede alcuni passaggi dettagliati:

  1. Prepara il tuo set di dati annotato.
  2. Configurare i parametri di addestramento in un file YAML.
  3. Utilizzare il yolo TASK train comando per avviare l'allenamento. (Ogni TASK (ha una sua logica)

Ecco un codice di esempio per l'attività di rilevamento degli oggetti:

Esempio di addestramento per il compito di rilevamento di oggetti

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Per una guida dettagliata, consulta la nostra guida " Addestrare un modello ", che include esempi e consigli per ottimizzare il processo di addestramento.

Quali sono le opzioni di licenza disponibili per Ultralytics YOLO?

Ultralytics due opzioni di licenza per YOLO:

  • AGPL-3.0 : questa licenza open source è ideale per l'uso didattico e non commerciale, in quanto promuove la collaborazione aperta.
  • Licenza Enterprise: è pensata per applicazioni commerciali e consente la perfetta integrazione del Ultralytics nei prodotti commerciali senza le restrizioni della AGPL-3.0 .

Per ulteriori informazioni, visita la nostra pagina dedicata alle licenze.

In che modo è possibileYOLO Ultralytics YOLO per il tracciamento di oggetti in tempo reale?

YOLO Ultralytics YOLO il tracciamento multi-oggetto efficiente e personalizzabile. Per sfruttare le funzionalità di tracciamento, è possibile utilizzare il yolo track comando, come mostrato di seguito:

Esempio di tracciamento di oggetti in un video

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Per una guida dettagliata alla configurazione e all'utilizzo del tracciamento degli oggetti, consulta la nostra documentazione sulla modalità Track, che illustra la configurazione e le applicazioni pratiche in scenari in tempo reale.



📅 Creato 2 anni fa ✏️ Aggiornato 7 giorni fa
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

Commenti