Vai al contenuto

YOLOv5 vs YOLO26: Un salto generazionale nel rilevamento di oggetti in tempo reale

L'evoluzione della visione artificiale è stata definita dalla spinta continua verso modelli più veloci, più accurati e più accessibili. Confrontando Ultralytics YOLOv5 con l'avanguardistico Ultralytics YOLO26, stiamo osservando un cambiamento di paradigma che colma il divario tra i robusti sistemi legacy e l'ultima frontiera dell'implementazione dell'IA moderna.

Questa guida fornisce un'analisi tecnica approfondita di entrambe le architetture, evidenziando le loro metriche di performance, le differenze strutturali e gli scenari di deployment ideali.

Panoramiche dei modelli

YOLOv5: Il Cavallo di Battaglia dell'Industria

Rilasciato nel 2020, YOLOv5 ha rivoluzionato l'accessibilità del rilevamento di oggetti. Migrando l'architettura nativamente al framework PyTorch, ha fornito agli sviluppatori un'esperienza "zero-to-hero" senza precedenti.

YOLOv5 ha stabilito le fondamenta per l'ecosistema Ultralytics altamente mantenuto. Ha introdotto tecniche aggressive di data augmentation, cicli di addestramento efficienti e percorsi di esportazione altamente ottimizzati per formati edge come CoreML e ONNX. La sua facilità d'uso e i bassi requisiti di memoria durante l'addestramento lo hanno reso un punto fermo per startup e ricercatori di tutto il mondo.

Scopri di più su YOLOv5

YOLO26: Lo standard AI di visione di prossima generazione

Facendo un balzo in avanti a gennaio 2026, Ultralytics YOLO26 rappresenta l'apice dell'AI di visione in tempo reale. Integra nativamente le lezioni apprese dalle generazioni intermedie come YOLOv8 e YOLO11, introducendo al contempo scoperte rivoluzionarie ispirate all'addestramento dei Large Language Model (LLM).

YOLO26 stabilisce un nuovo punto di riferimento per l'equilibrio delle prestazioni, offrendo un'accuratezza all'avanguardia pur essendo esplicitamente progettato per dominare gli scenari di edge computing.

Scopri di più su YOLO26

Altri Modelli Ultralytics

Se stai migrando una codebase più datata, potrebbe interessarti anche confrontare YOLOv5 con YOLO11, il modello di generazione precedente che ha introdotto il supporto iniziale per diverse attività come la stima della posa (Pose Estimation) e le bounding box orientate (OBB).

Innovazioni Architettoniche in YOLO26

Mentre YOLOv5 si basa su testine di detect anchor-based e funzioni di perdita standard, YOLO26 revisiona completamente la meccanica interna per eliminare i colli di bottiglia di deployment.

  1. Design End-to-End senza NMS: La differenza più significativa è l'architettura nativamente end-to-end di YOLO26. A differenza di YOLOv5, che richiede la Non-Maximum Suppression (NMS) manuale per filtrare i bounding box ridondanti, YOLO26 elimina completamente questo passaggio di post-elaborazione. Ciò garantisce una latenza di inferenza deterministica e semplifica drasticamente l'integrazione in C++ o hardware embedded.
  2. Rimozione DFL: YOLO26 rimuove la Distribution Focal Loss (DFL). Questa scelta architetturale semplifica drasticamente l'esportazione del modello e migliora la compatibilità con dispositivi edge a bassa potenza e microcontrollori che spesso hanno difficoltà con operatori complessi.
  3. Ottimizzatore MuSGD: Prendendo spunto da Kimi K2 di Moonshot AI, YOLO26 utilizza l'Ottimizzatore MuSGD, un ibrido di SGD e Muon. Questo porta la stabilità e la rapida convergenza osservate nell'addestramento dei modelli LLM alla visione artificiale, con conseguente minore utilizzo di memoria e cicli di addestramento più rapidi rispetto ai modelli basati su transformer.
  4. ProgLoss + STAL: YOLO26 utilizza sofisticate funzioni ProgLoss e STAL, migliorando notevolmente la sua capacità di detect oggetti piccoli e densi—una sfida storica per YOLOv5.

Confronto delle prestazioni

Confrontando i modelli sul dataset COCO, YOLO26 dimostra notevoli miglioramenti nella precisione (mAP) riducendo contemporaneamente il numero di parametri e le velocità di inferenza della CPU.

Modellodimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4 TensorRT10
(ms)
parametri
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

Nota: Il YOLO26 Nano (YOLO26n) raggiunge un impressionante 40.9 mAP rispetto ai 28.0 mAP di YOLOv5n, il tutto offrendo fino al 43% di inferenza CPU più veloce grazie alla rimozione di DFL e alla testa NMS-free.

Versatilità e supporto per i task

YOLOv5 è principalmente rinomato per la rilevazione di oggetti. Mentre aggiornamenti successivi hanno introdotto la segmentazione di base, YOLO26 è stato costruito da zero per essere un motore multi-task unificato.

YOLO26 supporta intrinsecamente:

  • Segmentazione di Istanza: Caratterizzata da prototipi multi-scala specifici per il task e da una loss di segmentazione semantica.
  • Stima della Posa: Utilizzando la Stima della Log-Verosimiglianza Residua (RLE) per un rilevamento dei keypoint altamente accurato.
  • Oriented Bounding Boxes (OBB): Includendo una funzione di perdita angolare specializzata per risolvere i problemi di discontinuità dei confini, critico per l'analisi di immagini satellitari.
  • Classificazione di Immagini: Categorizzazione standard di immagini complete.

Integrazione dell'ecosistema

Entrambi i modelli beneficiano della Piattaforma Ultralytics, fornendo annotazione dei dati senza soluzione di continuità, ottimizzazione automatizzata degli iperparametri e deployment nel cloud con un solo clic. Tuttavia, YOLO26 sfrutta appieno le moderne strutture API.

Esempi di Utilizzo e Codice

L'API Python di Ultralytics rende incredibilmente semplice passare da un modello all'altro. Poiché entrambi i modelli condividono lo stesso ecosistema ben mantenuto, l'aggiornamento di una pipeline YOLOv5 legacy a YOLO26 richiede solo la modifica del file dei pesi.

Esempio python

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Esempio CLI

È possibile distribuire YOLO26 direttamente tramite riga di comando utilizzando l'integrazione TensorRT per il massimo throughput della GPU:

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

Casi d'uso ideali

Quando scegliere YOLO26

Per qualsiasi progetto moderno di visione artificiale, YOLO26 è la raccomandazione indiscussa.

  • Edge AI e IoT: La sua inferenza CPU più veloce del 43% e la rimozione del DFL lo rendono perfetto per il deployment su un Raspberry Pi o dispositivi mobili.
  • Pipeline ad Alta Velocità: L'architettura NMS-free assicura una latenza stabile e prevedibile, cruciale per la robotica autonoma e i sistemi di allarme di sicurezza in tempo reale.
  • Scenari Complessi: Se la tua applicazione richiede il tracciamento di piccoli oggetti (ad esempio, monitoraggio di droni) o oggetti rotanti (OBB), le funzioni di perdita avanzate di YOLO26 (ProgLoss + STAL) offrono un enorme vantaggio in termini di precisione.

Quando scegliere YOLOv5

  • Sistemi Legacy: Se il tuo ambiente di produzione ha dipendenze hardcoded sulla generazione specifica delle ancore di YOLOv5 o sulla logica di parsing NMS, la migrazione potrebbe richiedere un breve periodo di refactoring.
  • Baseline Accademiche Specifiche: I ricercatori spesso utilizzano YOLOv5 come baseline classica per dimostrare la progressione storica delle architetture di object detection.

Riepilogo

La transizione da YOLOv5 a YOLO26 non è solo un aggiornamento iterativo; è un salto fondamentale nel modo in cui i modelli di rilevamento oggetti vengono addestrati e distribuiti. Sfruttando l'ottimizzatore MuSGD, eliminando la complessa post-elaborazione tramite un design NMS-free e accelerando massicciamente le velocità della CPU, Ultralytics YOLO26 offre un equilibrio senza compromessi tra velocità e precisione.

Mentre YOLOv5 sarà sempre ricordato come il modello che ha democratizzato l'IA visiva, gli sviluppatori che desiderano creare applicazioni robuste, pronte per la produzione e a prova di futuro dovrebbero basarsi con fiducia su YOLO26.


Commenti