Vai al contenuto

YOLO26 vs. YOLOv5: Architettura, Velocità e Casi d'Uso a Confronto

L'evoluzione dei modelli di rilevamento oggetti è stata rapida e trasformativa. In questo confronto, esploriamo le caratteristiche distintive di Ultralytics YOLO26 e Ultralytics YOLOv5, esaminando come i progressi nell'architettura e nelle metodologie di addestramento ne abbiano plasmato le capacità. Mentre YOLOv5 rimane un pilastro fondamentale nella comunità della visione artificiale, il nuovo YOLO26 introduce efficienze rivoluzionarie progettate per il deployment edge di nuova generazione e l'inferenza ad alta velocità.

Panoramica del modello

Entrambi i modelli rappresentano pietre miliari significative nella storia dell'architettura YOLO (You Only Look Once). Condividono un impegno per le prestazioni in tempo reale e la facilità d'uso, eppure servono epoche leggermente diverse dello sviluppo dell'IA.

Ultralytics YOLO26

YOLO26 è l'ultima iterazione di Ultralytics, lanciata a gennaio 2026. Rappresenta un cambiamento verso architetture nativamente end-to-end che eliminano la necessità di post-elaborazione Non-Maximum Suppression (NMS). Progettato pensando all'edge computing, semplifica il deployment spingendo al contempo i limiti dell'accuratezza.

  • Autori: Glenn Jocher e Jing Qiu
  • Organizzazione:Ultralytics
  • Data: 2026-01-14
  • Documentazione:Documentazione YOLO26
  • Innovazione chiave: Rilevamento end-to-end senza NMS, rimozione di DFL e ottimizzatore MuSGD.

Scopri di più su YOLO26

Ultralytics YOLOv5

YOLOv5 è stato rilasciato a metà del 2020 ed è diventato rapidamente lo standard del settore per il suo equilibrio tra velocità, accuratezza e ingegneria user-friendly. Ha introdotto l'ecosistema PyTorch a milioni di sviluppatori e rimane ampiamente utilizzato negli ambienti di produzione dove stabilità e supporto legacy sono fondamentali.

  • Autore: Glenn Jocher
  • Organizzazione:Ultralytics
  • Data: 2020-06-26
  • Documentazione:Documentazione YOLOv5
  • Innovazione chiave: Implementazione PyTorch user-friendly, aumento mosaico e meccanismi di auto-ancoraggio.

Scopri di più su YOLOv5

Differenze Architetturali

La transizione da YOLOv5 a YOLO26 comporta cambiamenti fondamentali nel modo in cui gli oggetti vengono rilevati e nel modo in cui il modello viene ottimizzato durante l'addestramento.

End-to-End vs. Post-Elaborazione

YOLOv5 si basa su Non-Maximum Suppression (NMS) per filtrare i bounding box duplicati. Sebbene efficace, NMS è un processo euristico che può rappresentare un collo di bottiglia durante l'inferenza, specialmente su dispositivi edge con cicli CPU limitati. Introduce iperparametri come le soglie IoU che devono essere ottimizzati per dataset specifici.

Al contrario, YOLO26 è nativamente end-to-end. Adottando un design introdotto per la prima volta in YOLOv10, YOLO26 predice l'esatto insieme di oggetti direttamente dall'output della rete senza richiedere NMS. Questo semplifica significativamente la pipeline di deployment, poiché l'output del modello è il risultato finale.

Semplicità di Deployment

La rimozione di NMS in YOLO26 significa che non è più necessario compilare complessi passaggi di post-elaborazione quando si esporta in formati come CoreML o TensorRT. L'output grezzo del modello è pronto all'uso, riducendo la latenza e la complessità di integrazione.

Funzioni di Perdita e Ottimizzazione

YOLO26 introduce ProgLoss (Progressive Loss Balancing) e STAL (Small-Target-Aware Label Assignment). Queste innovazioni mirano specificamente alle debolezze comuni nel rilevamento di oggetti, come la difficoltà nel detect di oggetti piccoli in immagini aeree o scene affollate. ProgLoss regola dinamicamente il peso dei diversi componenti di perdita durante l'addestramento per stabilizzare la convergenza.

Inoltre, YOLO26 utilizza l'ottimizzatore MuSGD, un ibrido di SGD e dell'ottimizzatore Muon ispirato alle tecniche di addestramento dei Large Language Model (LLM). Questo porta la stabilità dell'addestramento LLM alla visione artificiale, risultando in una convergenza più rapida e pesi più robusti.

Architettura della Head Semplificata

Un cambiamento importante in YOLO26 è la rimozione della Distribution Focal Loss (DFL). Mentre DFL ha contribuito alla precisione dei box in iterazioni precedenti come YOLOv8, ha aggiunto overhead computazionale e complessità durante l'esportazione. Raffinando la perdita di regressione, YOLO26 raggiunge un'alta precisione senza DFL, rendendolo fino al 43% più veloce sulle CPU rispetto alle generazioni precedenti, una metrica cruciale per le applicazioni di edge AI.

Confronto delle metriche di performance

La seguente tabella confronta le prestazioni di YOLO26 e YOLOv5 sul dataset COCO. YOLO26 dimostra guadagni significativi sia in accuratezza (mAP) che in velocità di inferenza, in particolare sull'hardware CPU dove le sue ottimizzazioni architetturali brillano.

Modellodimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Punti chiave

  1. Salto di Accuratezza: YOLO26n (Nano) raggiunge un mAP di 40.9, superando significativamente YOLOv5n a 28.0 mAP. Ciò consente agli utenti di deploy modelli più piccoli senza sacrificare la qualità del rilevamento.
  2. Efficienza CPU: La semplificazione architetturale in YOLO26 si traduce in un'inferenza CPU drasticamente più veloce. Ad esempio, YOLO26n funziona a circa 39ms su CPU, rispetto a circa 74ms per YOLOv5n, rendendolo ideale per raspberry pi o deployment mobili.
  3. Efficienza dei Parametri: YOLO26 raggiunge una maggiore accuratezza con meno parametri in molti casi (ad esempio, YOLO26l ha 24.8M parametri contro i 53.2M di YOLOv5l), riducendo l'ingombro di memoria durante l'addestramento e l'inferenza.

Formazione ed ecosistema

Entrambi i modelli beneficiano del robusto ecosistema Ultralytics, ma YOLO26 sfrutta strumenti più recenti e integrazioni più profonde.

Facilità d'uso e API

Entrambi i modelli utilizzano il pacchetto unificato ultralytics Python (YOLOv5 era originariamente standalone ma ora è integrato). Ciò garantisce che il passaggio tra di essi sia semplice come cambiare una stringa con il nome del modello.

from ultralytics import YOLO

# Load YOLO26 for state-of-the-art performance
model_26 = YOLO("yolo26n.pt")
model_26.train(data="coco8.yaml", epochs=100)

# Load YOLOv5 for legacy comparison
model_v5 = YOLO("yolov5nu.pt")
model_v5.train(data="coco8.yaml", epochs=100)

Funzionalità di Addestramento Avanzate

YOLO26 supporta strategie di data augmentation migliorate e il nuovo ottimizzatore MuSGD, che aiuta a sfuggire ai minimi locali in modo più efficace rispetto allo standard SGD utilizzato in YOLOv5. Inoltre, YOLO26 offre miglioramenti specifici per il task, come la Residual Log-Likelihood Estimation (RLE) per la stima della posa e perdite angolari specializzate per i task di Oriented Bounding Box (OBB), funzionalità che erano assenti o meno raffinate nell'era di YOLOv5.

Gli utenti possono anche sfruttare la Piattaforma Ultralytics per gestire dataset, addestrare modelli nel cloud e deploy su vari endpoint senza interruzioni.

Casi d'uso ideali

Quando Scegliere YOLO26

YOLO26 è la scelta consigliata per quasi tutti i nuovi progetti grazie al suo rapporto superiore tra accuratezza e latenza.

  • Edge AI & IoT: Con la rimozione di DFL e l'inferenza senza NMS, YOLO26 è perfetto per dispositivi come NVIDIA Jetson, Raspberry Pi o telefoni cellulari dove l'efficienza CPU/NPU è critica.
  • Rilevamento di Piccoli Oggetti: Grazie a STAL, YOLO26 eccelle in scenari come le immagini da drone o il rilevamento di difetti nella produzione, dove gli obiettivi sono spesso minuscoli rispetto alle dimensioni dell'immagine.
  • Analisi Video in Tempo Reale: I miglioramenti di velocità consentono di elaborare frame rate più elevati, essenziale per il monitoraggio del traffico o l'analisi sportiva.

Quando scegliere YOLOv5

Sebbene più vecchio, YOLOv5 ha ancora una nicchia:

  • Sistemi Legacy: Le pipeline esistenti, costruite rigorosamente attorno alla struttura del repository YOLOv5 dell'era 2020, potrebbero trovare più semplice mantenere il modello precedente anziché migrare.
  • Supporto Hardware Più Ampio: Essendo un modello più datato, YOLOv5 è stato portato praticamente su ogni piattaforma concepibile, inclusi microcontrollori molto specifici che potrebbero non avere ancora un supporto ottimizzato per le architetture più recenti.

Conclusione

Mentre YOLOv5 ha gettato le basi per il rilevamento di oggetti moderno con la sua accessibilità e affidabilità, YOLO26 rappresenta un significativo balzo in avanti. Adottando un design end-to-end senza NMS, ottimizzando per l'hardware edge e incorporando tecniche di addestramento avanzate come MuSGD e ProgLoss, YOLO26 offre un aggiornamento convincente per gli sviluppatori che cercano le migliori prestazioni.

Per la maggior parte degli utenti, la scelta è chiara: YOLO26 offre la velocità, la precisione e la versatilità necessarie per le esigenti applicazioni di visione artificiale odierne.

Esplora altri modelli

Se sei interessato a esplorare altre architetture, dai un'occhiata a YOLO11, il predecessore diretto di YOLO26, oppure a YOLO-World per capacità di rilevamento a vocabolario aperto.


Commenti