Home
Vi presentiamo Ultralytics YOLO26, l'ultima versione dell'acclamato modello per il rilevamento di oggetti e la segmentazione delle immagini in tempo reale. YOLO26 si basa sui progressi nel campo del deep learning e della visione artificiale, offrendo un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge. Il suo design snello lo rende adatto a diverse applicazioni e facilmente adattabile a diverse piattaforme hardware, dai dispositivi edge alle API cloud. Per carichi di lavoro di produzione stabili, sia YOLO26 che YOLO11 .
Esplora la Ultralytics , una risorsa completa pensata per aiutarti a comprendere e sfruttare le sue funzionalità e potenzialità. Che tu sia un professionista esperto nel campo del machine learning o un principiante, questa piattaforma ha lo scopo di aiutarti a sfruttare al massimo il potenziale YOLO nei tuoi progetti.
Richiedi una licenza Enterprise per uso commerciale su Ultralytics .
Da dove iniziare
Introduzione
Installa
ultralyticscon pip e sarà pronto all'uso in pochi minuti per addestrare un YOLOPredizione
Prevedi nuovi contenuti (immagini, video e streaming) con YOLO
Addestra un modello
Addestra un nuovo YOLO partendo da zero sul tuo set di dati personalizzato oppure carica e addestra un modello preaddestrato
Scopri le attività di visione artificiale
Scopri YOLO come detect, segment, classify, il riconoscimento della posa, l'OBB e track
Scopri YOLO26 🚀 NOVITÀ
Scopri gli ultimi modelli YOLO26 Ultralytics con inferenza NMS e ottimizzazione per l'edge
SAM : Segmenta qualsiasi cosa con i concetti 🚀 NOVITÀ
L'ultima versione di SAM di Meta con la segmentazione concettuale Promptable: segment le istanze utilizzando esempi di testo o immagini
Open Source, AGPL-3.0
Ultralytics due YOLO : AGPL-3.0 Enterprise. Scopri YOLO GitHub.
Guarda: Come addestrare un modello YOLO26 sul proprio set di dati personalizzato in Google Colab.
YOLO: una breve storia
YOLO (You Only Look Once), un popolare modello di rilevamento di oggetti e segmentazione delle immagini, è stato sviluppato da Joseph Redmon e Ali Farhadi presso l'Università di Washington. Lanciato nel 2015, YOLO popolarità grazie alla sua elevata velocità e precisione.
- YOLOv2, pubblicato nel 2016, ha migliorato il modello originale integrando la normalizzazione per lotti, gli anchor box e i cluster dimensionali.
- YOLOv3, lanciato nel 2018, ha ulteriormente migliorato le prestazioni del modello grazie all'utilizzo di una rete backbone più efficiente, di più punti di ancoraggio e dello spatial pyramid pooling.
- YOLOv4 è stato rilasciato nel 2020, introducendo innovazioni quali l'aumento dei dati Mosaic, un nuovo modulo di rilevamento senza ancoraggi e una nuova funzione di perdita.
- YOLOv5 ha ulteriormente migliorato le prestazioni del modello e ha aggiunto nuove funzionalità quali l'ottimizzazione degli iperparametri, il monitoraggio integrato degli esperimenti e l'esportazione automatica nei formati più diffusi.
- YOLOv6 è stato reso open source da Meituan nel 2022 ed è utilizzato in molti dei robot di consegna autonomi dell'azienda.
- YOLOv7 ha aggiunto ulteriori attività, come la stima della posa sul dataset COCO .
- YOLOv8 lanciato nel 2023 da Ultralytics, ha introdotto nuove funzionalità e miglioramenti per garantire prestazioni, flessibilità ed efficienza ottimizzate, supportando una gamma completa di attività di visione artificiale.
- YOLOv9 introduce metodi innovativi come il Programmable Gradient Information (PGI) e il Generalized Efficient Layer Aggregation Network (GELAN).
- YOLOv10 creato dai ricercatori dell'Università di Tsinghua utilizzando il Ultralytics, offre miglioramenti nel rilevamento degli oggetti in tempo reale grazie all'introduzione di un'unità end-to-end che elimina i requisiti della soppressione non massima (NMS).
- YOLO11: Rilasciato nel settembre 2024, YOLO11 prestazioni eccellenti in molteplici attività, tra cui il rilevamento di oggetti, la segmentazione, la stima della posa, il tracciamento e la classificazione, consentendo l'implementazione in diverse applicazioni e ambiti dell'IA.
- YOLO26 🚀: YOLO di nuova generazione Ultralytics, ottimizzato per l'implementazione edge con inferenza end-to-end NMS.
YOLO : quali sonoYOLO Ultralytics YOLO ?
Ultralytics due opzioni di licenza per soddisfare le diverse esigenze:
- AGPL-3.0 : questa licenza open source approvata dall'OSI è ideale per studenti e appassionati, poiché promuove la collaborazione aperta e la condivisione delle conoscenze. Per ulteriori dettagli, consultare il file LICENSE.
- Licenza Enterprise: pensata per l'uso commerciale, questa licenza consente la perfetta integrazione del Ultralytics e dei modelli di IA Ultralytics in prodotti e servizi commerciali, aggirando i requisiti open source della AGPL-3.0. Se il vostro progetto prevede l'integrazione delle nostre soluzioni in un'offerta commerciale, contattate Ultralytics .
La nostra strategia in materia di licenze è pensata per garantire che ogni miglioramento apportato ai nostri progetti open source venga restituito alla comunità. Crediamo nell'open source e la nostra missione è garantire che i nostri contributi possano essere utilizzati e ampliati in modi che vadano a vantaggio di tutti.
L'evoluzione del rilevamento degli oggetti
Il rilevamento degli oggetti ha subito una notevole evoluzione nel corso degli anni, passando dalle tecniche tradizionali di visione artificiale ai modelli avanzati di deep learning. La YOLO di modelliYOLO è stata in prima linea in questa evoluzione, ampliando costantemente i confini di ciò che è possibile realizzare nel campo del rilevamento degli oggetti in tempo reale.
L'approccio unico YOLO considera il rilevamento degli oggetti come un unico problema di regressione, prevedendo i riquadri di delimitazione e le probabilità di classe direttamente dalle immagini complete in un'unica valutazione. Questo metodo rivoluzionario ha reso YOLO notevolmente più veloci rispetto ai precedenti rilevatori a due fasi, pur mantenendo un'elevata precisione.
Con ogni nuova versione, YOLO introdotto miglioramenti architetturali e tecniche innovative che hanno ottimizzato le prestazioni sotto diversi aspetti. YOLO26 prosegue questa tradizione integrando gli ultimi progressi nella ricerca sulla visione artificiale, con un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge computing nelle applicazioni reali.
FAQ
Che cos'è Ultralytics YOLO in che modo migliora il rilevamento degli oggetti?
Ultralytics YOLO l'acclamata serie YOLO You Only Look Once) dedicata al rilevamento di oggetti e alla segmentazione delle immagini in tempo reale. L'ultimo modello, YOLO26, si basa sulle versioni precedenti introducendo un'inferenza end-to-end NMS e un'implementazione ottimizzata per l'edge. YOLO varie attività di visione artificiale quali rilevamento, segmentazione, stima della posa, tracciamento e classificazione. La sua architettura efficiente garantisce velocità e precisione eccellenti, rendendolo adatto a diverse applicazioni, inclusi dispositivi edge e API cloud.
Come posso iniziare con YOLO e la configurazione YOLO ?
Iniziare a usare YOLO semplice e veloce. Puoi installare il Ultralytics tramite pip ed essere operativo in pochi minuti. Ecco un comando di installazione di base:
Installazione tramite pip
pip install -U ultralytics
Per una guida completa passo dopo passo, visita la nostra pagina "Guida rapida". Questa risorsa ti fornirà istruzioni per l'installazione, la configurazione iniziale e l'esecuzione del tuo primo modello.
Come posso addestrare un YOLO personalizzato sul mio set di dati?
L'addestramento di un YOLO personalizzato sul proprio set di dati richiede alcuni passaggi dettagliati:
- Prepara il tuo set di dati annotato.
- Configurare i parametri di addestramento in un file YAML.
- Utilizzare il
yolo TASK traincomando per avviare l'allenamento. (OgniTASK(ha una sua logica)
Ecco un codice di esempio per l'attività di rilevamento degli oggetti:
Esempio di addestramento per il compito di rilevamento di oggetti
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
Per una guida dettagliata, consulta la nostra guida " Addestrare un modello ", che include esempi e consigli per ottimizzare il processo di addestramento.
Quali sono le opzioni di licenza disponibili per Ultralytics YOLO?
Ultralytics due opzioni di licenza per YOLO:
- AGPL-3.0 : questa licenza open source è ideale per l'uso didattico e non commerciale, in quanto promuove la collaborazione aperta.
- Licenza Enterprise: è pensata per applicazioni commerciali e consente la perfetta integrazione del Ultralytics nei prodotti commerciali senza le restrizioni della AGPL-3.0 .
Per ulteriori informazioni, visita la nostra pagina dedicata alle licenze.
In che modo è possibileYOLO Ultralytics YOLO per il tracciamento di oggetti in tempo reale?
YOLO Ultralytics YOLO il tracciamento multi-oggetto efficiente e personalizzabile. Per sfruttare le funzionalità di tracciamento, è possibile utilizzare il yolo track comando, come mostrato di seguito:
Esempio di tracciamento di oggetti in un video
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
Per una guida dettagliata alla configurazione e all'utilizzo del tracciamento degli oggetti, consulta la nostra documentazione sulla modalità Track, che illustra la configurazione e le applicazioni pratiche in scenari in tempo reale.









