YOLO26 vs YOLOv7: un salto generazionale nella visione artificiale
Il campo del rilevamento degli oggetti ha visto una rapida evoluzione nell'ultimo decennio, con la famiglia YOLO You Only Look Once) che ha costantemente guidato la carica in termini di prestazioni in tempo reale. Due pietre miliari significative in questa linea sono YOLOv7, rilasciato a metà del 2022, e l'innovativo YOLO26, rilasciato all'inizio del 2026. Mentre YOLOv7 il concetto di "bag-of-freebies" per ottimizzare l'addestramento senza aumentare i costi di inferenza, YOLO26 rappresenta un cambiamento di paradigma con la sua architettura end-to-end NMS e il design CPU.
Questa guida fornisce un confronto tecnico dettagliato per aiutare sviluppatori, ricercatori e ingegneri a scegliere il modello più adatto alle loro specifiche esigenze di implementazione, sia che si tratti di GPU di fascia alta o di dispositivi edge con risorse limitate.
Panoramica del modello e paternità
Comprendere il pedigree di questi modelli aiuta a contestualizzare le loro decisioni architetturali e i casi d'uso previsti.
YOLO26
YOLO26 è l'ultima versione di Ultralytics, progettata per risolvere le sfide persistenti della complessità di implementazione e della latenza periferica. Introduce una pipeline end-to-end (E2E) che elimina la necessità della soppressione non massima (NMS), semplificando in modo significativo il percorso dalla formazione alla produzione.
- Autori: Glenn Jocher, Jing Qiu
- Organizzazione:Ultralytics
- Data: 14 gennaio 2026
- Innovazione chiave: rilevamento end-to-end NMS, ottimizzatore MuSGD e ottimizzazione CPU.
YOLOv7
YOLOv7 è stata una versione rivoluzionaria incentrata sui metodi di ottimizzazione "bag-of-freebies" addestrabili, che migliorano la precisione durante l'addestramento senza aggiungere costi in fase di inferenza. Ha stabilito nuovi benchmark all'avanguardia per i rilevatori di oggetti in tempo reale nel 2022.
- Autori: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
- Organizzazione: Institute of Information Science, Academia Sinica
- Data: 6 luglio 2022
- Arxiv:YOLOv7: Trainable bag-of-freebies sets new state-of-the-art
- Innovazione chiave: riparametrizzazione E-ELAN e ridimensionamento composto.
Confronto Architetturale
Le differenze architetturali tra YOLO26 e YOLOv7 i rispettivi punti di forza in termini di velocità, precisione e facilità di implementazione.
YOLO26: La Rivoluzione End-to-End
YOLO26 cambia radicalmente il processo di rilevamento adottando un design end-to-end NMS. I rilevatori tradizionali, compreso YOLOv7, generano migliaia di riquadri candidati che devono essere filtrati utilizzando la soppressione non massima (NMS). Questa fase di post-elaborazione è spesso lenta, sensibile agli iperparametri e difficile da implementare su hardware specializzato come FPGA o NPU.
YOLO26 elimina NMS apprendendo l'abbinamento uno a uno durante l'addestramento. In combinazione con la rimozione della Distribution Focal Loss (DFL), ciò si traduce in una struttura del modello molto più semplice da esportare in formati come ONNX o TensorRT. Inoltre, YOLO26 utilizza l'ottimizzatore MuSGD, un ibrido di SGD Muon (ispirato all'addestramento LLM), che garantisce una convergenza stabile anche con la sua nuova architettura.
YOLOv7: Bag-of-Freebies ed E-ELAN
YOLOv7 sull'efficienza architettonica attraverso le reti di aggregazione di livelli efficienti estesi (E-ELAN). Questo design consente alla rete di apprendere caratteristiche più diversificate controllando i percorsi di gradiente più brevi e più lunghi. Si basa in larga misura su tecniche di riparametrizzazione, in cui una struttura di addestramento complessa viene semplificata in una struttura di inferenza ottimizzata. Sebbene sia altamente efficace per GPU , questo approccio mantiene la dipendenza NMS, che può diventare un collo di bottiglia sui CPU o quando la densità degli oggetti è estremamente elevata.
Perché NMS-Free è importante
Sui dispositivi edge, spesso non è possibile parallelizzare efficacemente NMS . Eliminandolo, YOLO26 raggiunge un'inferenza fino al 43% più veloce sulle CPU rispetto ai predecessori basati su anchor, rendendolo una scelta superiore per Raspberry Pi, telefoni cellulari e sensori IoT.
Metriche di performance
La tabella sottostante evidenzia i miglioramenti prestazionali di YOLO26 rispetto a YOLOv7. Mentre YOLOv7 un forte concorrente sulle GPU di fascia alta, YOLO26 domina in termini di efficienza, dimensioni del modello e CPU .
| Modello | dimensione (pixel) | mAPval 50-95 | Velocità CPU ONNX (ms) | Velocità T4 TensorRT10 (ms) | parametri (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
Punti chiave:
- Efficienza: il modello YOLO26l supera YOLOv7l di +3,6 mAP utilizzando il 32% in meno di parametri e il 17% in meno di FLOP.
- Velocità: YOLO26n (Nano) offre un incredibile punto di accesso per l'edge AI, funzionando a quasi 40 ms sulla CPU, un parametro che l'architettura YOLOv7 non può facilmente eguagliare a causa del NMS .
- Precisione: nella fascia alta, YOLO26x spinge il limite a 57,5 mAP, significativamente superiore ai 53,1 mAP di YOLOv7x.
Casi d'uso e applicazioni
La scelta tra questi modelli dipende spesso dall'ambiente di implementazione e dai requisiti specifici dell'applicazione.
Quando Scegliere YOLO26
YOLO26 è la scelta consigliata per la maggior parte dei progetti di visione artificiale moderni, in particolare quelli che danno priorità a:
- Edge Computing: con CPU fino al 43% più veloce, eccelle su dispositivi come Raspberry Pi o NVIDIA Nano.
- Implementazione semplificata: il design NMS rende l'esportazione in CoreML (iOS) o TFLite Android), evitando i comuni problemi di assistenza degli operatori.
- Rilevamento di oggetti di piccole dimensioni: le funzioni di perdita ProgLoss + STAL migliorate offrono notevoli vantaggi nel rilevamento di oggetti di piccole dimensioni, fondamentale per l'analisi delle immagini aeree e le ispezioni con droni.
- Compiti diversificati: oltre al rilevamento, YOLO26 supporta nativamente la stima della posa, la segmentazione delle istanze e gli Oriented Bounding Boxes (OBB).
Quando considerare YOLOv7
YOLOv7 rilevante per i sistemi legacy o per specifici benchmark di ricerca in cui la metodologia "bag-of-freebies" è al centro dello studio.
- GPU legacy: se un sistema è già fortemente ottimizzato per gli output specifici basati su anchor di YOLOv7 GPU di fascia alta (come V100 o A100), la migrazione potrebbe subire ritardi.
- Ricerca accademica: i ricercatori che studiano gli effetti dell'ottimizzazione del percorso gradiente e della riparametrizzazione utilizzano spesso YOLOv7 base di riferimento.
Il vantaggio dell'ecosistema Ultralytics
Uno dei motivi più convincenti per adottare YOLO26 è la sua profonda integrazione Ultralytics . A differenza dei repository autonomi, Ultralytics beneficiano di una piattaforma unificata e ben mantenuta.
- Facilità d'uso: la filosofia "zero-to-hero" consente di passare dall'installazione alla formazione in pochi minuti. Python è coerente tra le diverse versioni, quindi l'aggiornamento da YOLOv8 a YOLO26 richiede la modifica di una sola stringa.
- Efficienza di addestramento: Ultralytics sono ottimizzati per addestrarsi più rapidamente e utilizzare meno CUDA rispetto alle alternative basate su trasformatori (come RT-DETR). Ciò consente di ottenere batch di dimensioni maggiori sulle GPU consumer.
- Ultralytics : gli utenti possono sfruttare la Ultralytics per visualizzare set di dati, addestrare modelli nel cloud e distribuirli con un solo clic.
Esempio di codice: Addestramento e Inferenza
Il codice seguente mostra come utilizzare Ultralytics per caricare e addestrare l'ultimo modello YOLO26. L'API semplifica la complessa configurazione, rendendola accessibile anche ai principianti.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
# The 'n' suffix denotes the Nano version, optimized for speed.
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The system automatically handles dataset downloads and configuration.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on a sample image
# The NMS-free output ensures fast and clean results.
predictions = model("https://ultralytics.com/images/bus.jpg")
# Display the results
predictions[0].show()
Conclusione
Mentre YOLOv7 un momento cruciale nella storia del rilevamento degli oggetti, YOLO26 rappresenta il futuro. La sua architettura end-to-end non solo migliora le metriche di prestazione come mAP latenza, ma semplifica anche in modo sostanziale il flusso di lavoro di implementazione per gli sviluppatori. Eliminando la dipendenza da NMS ottimizzando notevolmente gli ambienti CPU edge, YOLO26 garantisce che la visione artificiale all'avanguardia sia accessibile, efficiente e sufficientemente versatile per applicazioni reali che vanno dai veicoli autonomi all'analisi delle smart city.
Per chi fosse interessato ad approfondire altre architetture moderne, la documentazione tratta anche YOLO11 e YOLOv10, che offrono diversi compromessi nella continua evoluzione dell'intelligenza artificiale visiva.