Vai al contenuto

YOLO26 vs. YOLO11: Un Confronto Tecnico per gli Ingegneri della Visione Artificiale

Il panorama del rilevamento di oggetti in tempo reale e della visione artificiale continua ad evolversi rapidamente. Ultralytics rimane all'avanguardia di questa evoluzione, spingendo costantemente i confini di velocità, precisione e facilità d'uso. Questo confronto tecnico approfondisce i progressi architetturali, le metriche di performance e i casi d'uso ideali per YOLO26 e YOLO11, assistendo sviluppatori e ricercatori nella selezione del modello ottimale per le loro esigenze di deployment.

Riepilogo

YOLO26, rilasciato a gennaio 2026, rappresenta l'ultimo stato dell'arte (SOTA) nella famiglia YOLO. Introduce un'architettura nativamente end-to-end (senza NMS), ottimizzata per il deployment su edge e per le prestazioni della CPU. YOLO11, il suo predecessore di settembre 2024, rimane un'opzione potente e robusta, sebbene YOLO26 lo superi in velocità di inferenza, in particolare su hardware non-GPU, e in semplicità architetturale.

Per la maggior parte dei nuovi progetti, YOLO26 è la scelta raccomandata grazie al suo superiore compromesso velocità-precisione e alla pipeline di deployment semplificata.

Evoluzione Architetturale

La transizione da YOLO11 a YOLO26 comporta cambiamenti strutturali significativi volti a ridurre la latenza e la complessità, pur mantenendo un'elevata precisione.

YOLO26: Ottimizzato e End-to-End

YOLO26 segna un cambiamento di paradigma adottando un design nativamente end-to-end. A differenza dei modelli YOLO tradizionali che si basano sulla Non-Maximum Suppression (NMS) per filtrare i bounding box sovrapposti, YOLO26 elimina completamente questo passaggio. Questa innovazione, introdotta per la prima volta in YOLOv10, semplifica la pipeline di deployment e riduce la latenza di inferenza, rendendola particolarmente vantaggiosa per le applicazioni in tempo reale.

Le principali innovazioni architetturali in YOLO26 includono:

  • Rimozione del DFL: Il modulo Distribution Focal Loss (DFL) è stato rimosso. Questa semplificazione migliora la compatibilità con i dispositivi edge e accelera l'esportazione verso formati come ONNX e TensorRT, eliminando operazioni matematiche complesse che possono rallentare i processori a bassa potenza.
  • Ottimizzatore MuSGD: Ispirato alle tecniche di addestramento dei modelli linguistici di grandi dimensioni (LLM), YOLO26 utilizza un ottimizzatore ibrido che combina SGD e Muon (da Kimi K2 di Moonshot AI). Ciò si traduce in dinamiche di addestramento più stabili e una convergenza più rapida.
  • ProgLoss + STAL: Il Bilanciamento Progressivo della Perdita (ProgLoss) e l'Assegnazione di Etichette Sensibile agli Oggetti Piccoli (STAL) migliorano significativamente le prestazioni sugli oggetti piccoli, un fattore critico per le immagini da drone e il telerilevamento.

Scopri di più su YOLO26

YOLO11: Il Robusto Predecessore

YOLO11 si basa sui blocchi C3k2 e sui moduli SPPF (Spatial Pyramid Pooling - Fast) per offrire alta efficienza. Impiega un blocco C2PSA raffinato con meccanismi di attenzione per migliorare l'estrazione delle feature. Sebbene altamente efficace, il suo affidamento sulla post-elaborazione NMS introduce un leggero overhead computazionale durante l'inferenza rispetto all'approccio end-to-end di YOLO26.

Scopri di più su YOLO11

Perché l'approccio End-to-End è Importante

La rimozione di NMS in YOLO26 significa che l'output del modello richiede meno codice di post-elaborazione. Ciò riduce il rischio di bug di deployment e garantisce una latenza consistente, poiché il tempo di inferenza non fluttua in base al numero di oggetti rilevati.

Benchmark delle prestazioni

La seguente tabella evidenzia le differenze di prestazioni tra i due modelli sul dataset COCO. YOLO26 dimostra chiari vantaggi sia in termini di precisione (mAP) che di velocità di inferenza della CPU.

Modellodimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

Analisi delle metriche

  1. Velocità di Inferenza della CPU: YOLO26n è circa il 43% più veloce sulla CPU rispetto a YOLO11n (38.9ms vs. 56.1ms). Questo rende YOLO26 la scelta superiore per i deployment su Raspberry Pi, dispositivi mobili e CPU standard.
  2. Precisione (mAP): Su tutte le scale, YOLO26 raggiunge costantemente una Mean Average Precision più elevata. Il modello 'nano' registra un salto significativo da 39.5 a 40.9 mAP, offrendo una migliore qualità di rilevamento a velocità più elevate.
  3. Efficienza del Modello: YOLO26 tipicamente richiede meno parametri e FLOPs per prestazioni migliori, illustrando i guadagni di efficienza derivanti dalla potatura architetturale e dalla rimozione del DFL head.

Addestramento e ottimizzazione

Entrambi i modelli beneficiano del robusto ecosistema Ultralytics, rendendo l'addestramento accessibile ed efficiente.

  • Facilità d'uso: Sia YOLO26 che YOLO11 condividono la stessa API Python unificata e interfaccia CLI. Passare da uno all'altro è semplice come cambiare la stringa del modello da yolo11n.pt a yolo26n.pt.
  • Efficienza dell'Addestramento: L'ottimizzatore MuSGD di YOLO26 aiuta a stabilizzare le esecuzioni di addestramento, riducendo potenzialmente il numero di epoche necessarie per raggiungere la convergenza. Ciò consente di risparmiare sui costi computazionali e sul tempo, specialmente per dataset di grandi dimensioni come ImageNet.
  • Requisiti di Memoria: I modelli Ultralytics sono rinomati per il loro basso consumo di memoria rispetto alle alternative basate su transformer. YOLO26 ottimizza ulteriormente questo aspetto rimuovendo i calcoli ridondanti del head, consentendo dimensioni di batch maggiori su GPU di fascia consumer.

Esempio di Addestramento

Ecco come è possibile addestrare l'ultimo modello YOLO26 utilizzando il pacchetto Python Ultralytics:

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Versatilità dei Compiti e Casi d'Uso

Entrambe le famiglie di modelli supportano un'ampia gamma di compiti di visione artificiale, inclusi detect, segment, classificazione, stima della posa e rilevamento di oggetti orientati (OBB).

Casi d'Uso Ideali per YOLO26

  • Edge Computing: Con velocità della CPU fino al 43% più elevate, YOLO26 è perfetto per dispositivi IoT, telecamere intelligenti e applicazioni mobili dove le risorse GPU non sono disponibili.
  • Rilevamento di Oggetti Piccoli: Grazie a ProgLoss e STAL, YOLO26 eccelle in scenari come la sorveglianza aerea, l'ispezione di qualità e l'imaging medico, dove il rilevamento di dettagli minuti è cruciale.
  • Robotica in Tempo Reale: Il design senza NMS garantisce una latenza deterministica, fondamentale per i cicli di controllo nella navigazione autonoma e nella manipolazione robotica.

Casi d'Uso Ideali per YOLO11

  • Sistemi Legacy: Per i flussi di lavoro già ottimizzati per le architetture YOLO11 o dove specifiche pipeline di post-elaborazione sono codificate in modo rigido attorno agli output NMS, YOLO11 rimane una scelta stabile e supportata.
  • Inferenza GPU per Scopi Generali: Su potenti GPU per data center (come la T4), YOLO11 offre prestazioni competitive, rendendolo adatto per l'elaborazione batch lato server dove la latenza della CPU è meno problematica.

Ecosistema e supporto

Uno dei maggiori vantaggi nell'utilizzo dei modelli Ultralytics è l'ecosistema circostante. Sia YOLO26 che YOLO11 sono completamente integrati nella Piattaforma Ultralytics, consentendo una gestione, visualizzazione e deployment del modello senza interruzioni.

  • Documentazione: Guide complete coprono ogni aspetto, dall'annotazione dei dati all'esportazione del modello.
  • Community: Una vivace community su GitHub e Discord assicura che gli sviluppatori abbiano accesso a supporto e conoscenza condivisa.
  • Integrazioni: Entrambi i modelli supportano una facile esportazione in formati come ONNX, OpenVINO e TensorRT, facilitando il deployment in diversi ambienti hardware.

Conclusione

Sebbene YOLO11 rimanga un modello altamente capace, YOLO26 rappresenta un significativo passo avanti in termini di efficienza e semplicità architetturale. Il suo design end-to-end, la latenza ridotta della CPU e la maggiore precisione sugli oggetti piccoli lo rendono la scelta superiore per le moderne applicazioni di visione artificiale. Sia che si effettui il deployment su dispositivi edge o l'addestramento sul cloud, YOLO26 offre il miglior equilibrio tra prestazioni e usabilità disponibile oggi.

Dettagli del Modello

YOLO26 Autore: Glenn Jocher e Jing Qiu
Organizzazione: Ultralytics
Data: 2026-01-14
GitHub | Documenti

YOLO11 Autore: Glenn Jocher e Jing Qiu
Organizzazione: Ultralytics
Data: 2024-09-27
GitHub | Documenti

Gli sviluppatori in cerca di altre opzioni potrebbero anche esplorare YOLOv10 per concetti end-to-end precedenti o YOLO-World per attività di detect a vocabolario aperto.


Commenti