Vai al contenuto

YOLOv7 YOLO26: un salto tecnologico nel rilevamento degli oggetti

Il panorama della visione artificiale cambia a una velocità mozzafiato. Nel 2022, YOLOv7 ha stabilito un nuovo punto di riferimento in termini di velocità e precisione, introducendo innovazioni architetturali come E-ELAN. Passiamo rapidamente al gennaio 2026, quando YOLO26 ha ridefinito lo stato dell'arte con un design end-to-end, CPU e stabilità di addestramento mutuate dai modelli linguistici di grandi dimensioni (LLM).

Questa guida fornisce un confronto tecnico tra queste due pietre miliari nella storia del rilevamento degli oggetti, aiutando gli sviluppatori a scegliere lo strumento giusto per le implementazioni moderne.

Evoluzione Architetturale

Il passaggio da YOLOv7 YOLO26 rappresenta un cambiamento fondamentale nel modo in cui le reti neurali sono progettate per garantire efficienza e facilità d'uso.

YOLOv7: L'eredità di E-ELAN

YOLOv7, pubblicato il 6 luglio 2022, è stato scritto da Chien-Yao Wang, Alexey Bochkovskiy e Hong-Yuan Mark Liao dell'Istituto di Scienze dell'Informazione dell'Accademia Sinica.

La sua innovazione principale era l'Extended Efficient Layer Aggregation Network (E-ELAN). Questa architettura consente alla rete di apprendere caratteristiche più diversificate controllando i percorsi di gradiente più brevi e più lunghi. Ha anche introdotto un "bag-of-freebies", che include la riparametrizzazione pianificata, che ha migliorato la precisione senza aumentare il costo dell'inferenza. Tuttavia, YOLOv7 su anchor box e richiede una post-elaborazione Non-Maximum Suppression (NMS), che introduce variabilità di latenza e complica l'implementazione sui dispositivi edge.

Scopri di più su YOLOv7

YOLO26: La Rivoluzione End-to-End

YOLO26, rilasciato da Ultralytics nel gennaio 2026, è stato progettato per l'era dell'edge computing e delle operazioni ML semplificate.

Innovazione chiave: End-to-End NMS

YOLO26 è nativamente end-to-end, eliminando la necessità di NMS . Questa innovazione, introdotta per la prima volta in YOLOv10, riduce significativamente la latenza di inferenza e semplifica la pipeline di implementazione, garantendo che l'output del modello sia immediatamente pronto all'uso.

YOLO26 introduce diversi progressi fondamentali:

  1. MuSGD Optimizer: ispirato alle tecniche di addestramento Kimi K2 e LLM di Moonshot AI, questo ibrido di SGD e Muon offre una stabilità senza precedenti alla formazione della visione artificiale, con conseguente convergenza più rapida.
  2. Rimozione DFL: rimuovendo la perdita focale di distribuzione (DFL), YOLO26 semplifica il livello di output. Ciò rende l'esportazione in formati come ONNX o TensorRT e migliora la compatibilità con dispositivi edge a bassa potenza.
  3. ProgLoss + STAL: queste funzioni di perdita migliorate offrono notevoli vantaggi nel riconoscimento di oggetti di piccole dimensioni, un requisito fondamentale per le immagini dei droni e i sensori IoT.

Scopri di più su YOLO26

Analisi delle prestazioni

Confrontando i parametri grezzi, YOLO26 dimostra i miglioramenti in termini di efficienza ottenuti in quattro anni di ricerca. Offre una maggiore precisione con una frazione dei parametri e velocità di inferenza significativamente più elevate, in particolare sulle CPU.

Modellodimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

Velocità ed efficienza

YOLO26 è ottimizzato specificamente per ambienti privi di GPU potenti. Grazie all'eliminazione delle pesanti fasi di post-elaborazione e ai blocchi ottimizzati, offre CPU fino al 43% più veloce rispetto alle generazioni precedenti. Per gli sviluppatori che effettuano l'implementazione su Raspberry Pi, telefoni cellulari o CPU generiche, YOLO26 è il chiaro vincitore.

Al contrario, YOLOv7 progettato principalmente pensando GPU di fascia alta (in particolare V100 e A100). Sebbene rimanga veloce sui CUDA , manca del design architettonico ottimizzato richiesto dall'intelligenza artificiale edge moderna.

Formazione ed ecosistema

La differenza nell'esperienza utente tra i due modelli è netta. YOLOv7 su strutture di repository più datate che spesso richiedono configurazioni ambientali complesse, formattazione manuale dei dati e argomenti della riga di comando verbosi.

Il vantaggio di Ultralytics

YOLO26 è completamente integrato Ultralytics , offrendo un'esperienza semplificata "da zero a eroe".

Esempio di codice

Confrontando la complessità d'uso, Ultralytics semplifica notevolmente il flusso di lavoro.

from ultralytics import YOLO

# Load the latest YOLO26 model (nano version for speed)
model = YOLO("yolo26n.pt")

# Train the model on your custom dataset
# No complex config files needed, just point to your data.yaml
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with NMS-free speed
# The results object contains easy-to-parse boxes and masks
results = model("path/to/image.jpg")

Casi d'uso ideali

Quando scegliere YOLOv7

YOLOv7 un modello rispettato nella comunità accademica e può essere rilevante per:

  • Sistemi legacy: progetti profondamente integrati con il YOLOv7 specifico YOLOv7 che non possono essere facilmente migrati.
  • Benchmarking della ricerca: i ricercatori confrontano le nuove architetture con gli standard all'avanguardia del 2022.
  • GPU specifici: scenari in cui la struttura E-ELAN specifica offre un vantaggio di nicchia su hardware meno recenti, anche se questo sta diventando raro.

Quando Scegliere YOLO26

YOLO26 è la scelta consigliata per praticamente tutti i nuovi progetti commerciali e di ricerca grazie al suo equilibrio prestazionale e all'efficienza di addestramento.

  • Edge Computing: ideale per l'implementazione su dispositivi mobili (Android) o integrati (Jetson, Raspberry Pi) grazie alle dimensioni compatte e CPU .
  • Analisi in tempo reale: il design NMS garantisce una latenza costante, fondamentale per applicazioni critiche per la sicurezza come la guida autonoma o la robotica.
  • Compiti complessi: quando il tuo progetto richiede il passaggio tra rilevamento, segmentazione e OBB (ad esempio, analisi di immagini aeree), l'architettura versatile di YOLO26 è superiore.
  • Ambienti con memoria limitata: YOLO26 richiede CUDA significativamente inferiore durante l'addestramento rispetto ai modelli basati su trasformatori o alle architetture precedenti, consentendo batch di dimensioni maggiori sulle GPU consumer.

Conclusione

Mentre YOLOv7 un momento cruciale nella storia del rilevamento degli oggetti, YOLO26 rappresenta il futuro. Combinando la stabilità degli ottimizzatori ispirati all'LLM (MuSGD) con un'architettura semplificata e NMS, Ultralytics creato un modello più veloce, più accurato e significativamente più facile da usare.

Per gli sviluppatori che desiderano creare applicazioni di visione artificiale robuste e a prova di futuro, l'ecosistema integrato, la documentazione completa e le prestazioni superiori rendono YOLO26 la scelta più ovvia.

Esplora altri modelli

Se sei interessato a esplorare altre opzioni all'interno della Ultralytics , prendi in considerazione YOLO11 per attività generiche o RT-DETR per il rilevamento basato su trasformatori, dove il contesto globale ha la priorità rispetto alla pura velocità di inferenza.


Commenti