Vai al contenuto

Confronto tra modelli: scegli il modello di rilevamento oggetti migliore per il tuo progetto

La scelta della giusta architettura di rete neurale è la chiave di volta di qualsiasi progetto di computer vision di successo. Benvenuti nell'hub di confronto dei modelliUltralytics ! Questa pagina centralizza analisi tecniche dettagliate e benchmark delle prestazioni, analizzando i compromessi tra i più recenti modelli di Ultralytics. Ultralytics YOLO11 e altre architetture leader come YOLOv10, RT-DETR ed EfficientDet.

Sia che la vostra applicazione richieda la latenza di un millisecondo dell'IA edge o la precisione ad alta fedeltà necessaria per l'imaging medicale, questa guida fornisce gli approfondimenti basati sui dati necessari per fare una scelta informata. Valutiamo i modelli in base alla precisione media (mAP), alla velocità di inferenza, all'efficienza dei parametri e alla facilità di implementazione.

Parametri di prestazione interattivi

La visualizzazione della relazione tra velocità e precisione è essenziale per identificare la "frontiera di Pareto" dei modelli di rilevamento degli oggetti che offrono la migliore precisione per un determinato vincolo di velocità. Il grafico seguente mette a confronto le metriche chiave su set di dati standard come COCO.

Questo grafico visualizza le principali metriche delle prestazioni, consentendo di valutare rapidamente i compromessi tra i diversi modelli. La comprensione di queste metriche è fondamentale per la scelta di un modello in linea con i vincoli di distribuzione specifici.

Guida rapida alle decisioni

Non sapete da dove cominciare? Utilizzate questo albero decisionale per restringere l'architettura che meglio si adatta ai vostri requisiti di hardware e prestazioni.

graph TD
    A[Start: Define Project Needs] --> B{Deployment Hardware?}
    B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
    B -- "Cloud / GPU" --> D{Accuracy vs Speed?}

    C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
    C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]

    D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
    D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]

    A --> I{Specialized Features?}
    I -- "NMS-Free Inference" --> J[YOLOv10]
    I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
    I -- "Video Analytics" --> L[YOLO11 + Tracking]

Il panorama attuale: YOLO11 e oltre

Il campo del rilevamento degli oggetti si muove rapidamente. Mentre i vecchi modelli rimangono rilevanti per il supporto legacy, le nuove architetture spingono i confini del possibile.

Ultralytics YOLO11

Come l'ultima versione stabile, YOLO11 è il punto di partenza consigliato per i nuovi progetti. Introduce significativi miglioramenti architetturali rispetto alle versioni precedenti, tra cui capacità di estrazione delle caratteristiche migliorate e grafici di calcolo ottimizzati. Supporta una suite completa di attività - rilevamento, segmentazione, stima della posa, classificazione e Oriented Bounding Boxes (OBB)- in un unico framework unificato.

Perché scegliere YOLO11?

YOLO11 rappresenta l'apice dell'ingegneria Ultralytics , offrendo il miglior equilibrio tra velocità e precisione per le applicazioni reali. È completamente supportato dal nostro ecosistema, che garantisce manutenzione e compatibilità a lungo termine.

Modelli comunitari: Una nota su YOLO12 e YOLO13

È possibile trovare riferimenti a YOLO12 o YOLO13 nelle discussioni o nei repository della comunità.

Attenzione alla produzione

Attualmente non consigliamo YOLO12 o YOLO13 per l'uso in produzione.

  • YOLO12: utilizza livelli di attenzione che spesso causano instabilità dell'allenamento, consumo eccessivo di memoria e velocità di inferenza CPU significativamente inferiori.
  • YOLO13: i benchmark indicano solo guadagni marginali in termini di accuratezza rispetto a YOLO11 , pur essendo più grande e più lento. I risultati riportati hanno mostrato problemi di riproducibilità.

Guardando al futuro: YOLO26 e la piattaforma Ultralytics

Ultralytics sta sviluppando attivamente YOLO26, il cui rilascio open-source è previsto per la fine del 2025. Questo modello di nuova generazione mira a supportare tutte le attività di YOLO11 , pur essendo più piccolo, più veloce e nativamente end-to-end. Inoltre, nel 2026, la piattaformaUltralytics verrà lanciata come soluzione SaaS completa per l'approvvigionamento dei dati, l'annotazione automatica e la formazione in cloud, semplificando l'intero ciclo di vita MLOps.



Guarda: Modelli YOLO a confronto: Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉

Confronto dettagliato tra i modelli

Esplorate i nostri approfonditi confronti tecnici per comprendere le differenze architettoniche specifiche, come la selezione della spina dorsale, il design della testa e le funzioni di perdita. Li abbiamo organizzati per modello per facilitarne l'accesso:

YOLO11 vs

YOLO11 si basa sul successo dei suoi predecessori con una ricerca all'avanguardia. Presenta un'architettura backbone e neck migliorata per una migliore estrazione delle caratteristiche e un'efficienza ottimizzata.

YOLOv10 vs

Sviluppato dalla Tsinghua University, YOLOv10 si concentra sull'eliminazione del passaggio Non-Maximum Suppression (NMS) per ridurre la varianza della latenza, offrendo prestazioni all'avanguardia con un overhead computazionale ridotto.

YOLOv9 vs

YOLOv9 introduce la Programmable Gradient Information (PGI) e la Generalized Efficient Layer Aggregation Network (GELAN) per affrontare la perdita di informazioni nelle reti neurali profonde.

YOLOv8 vs

Ultralytics YOLOv8 rimane una scelta molto popolare, caratterizzata da architetture avanzate della spina dorsale e del collo e da una testa divisa senza ancore per un compromesso ottimale tra precisione e velocità.

YOLOv7 vs

YOLOv7 ha introdotto il "bag-of-freebies addestrabile" e la ri-parametrizzazione del modello, concentrandosi sull'ottimizzazione del processo di addestramento senza aumentare i costi di inferenza.

YOLOv6 vs

YOLOv6 di Meituan è progettato per le applicazioni industriali, con moduli di concatenazione bidirezionale (BiC) e strategie di formazione assistite da ancore.

YOLOv5 vs

Ultralytics YOLOv5 è famoso per la sua facilità d'uso, stabilità e velocità. Rimane una scelta solida per i progetti che richiedono un'ampia compatibilità con i dispositivi.

RT-DETR vs

RT-DETR (Real-Time Detection Transformer) sfrutta i trasformatori di visione per ottenere un'elevata precisione con prestazioni in tempo reale, eccellendo nella comprensione del contesto globale.

PP-YOLOE+ vs

PP-YOLOE+, sviluppato da Baidu, utilizza il Task Alignment Learning (TAL) e una testa disaccoppiata per bilanciare efficienza e precisione.

DAMO-YOLO contro

YOLO di Alibaba Group impiega la ricerca dell'architettura neurale (NAS) e l'efficiente RepGFPN per massimizzare l'accuratezza dei benchmark statici.

YOLOX contro

YOLOX, sviluppato da Megvii, è un'evoluzione anchor-free nota per la sua testa disaccoppiata e la strategia di assegnazione delle etichette SimOTA.

EfficientDet vs

EfficientDet di Google Brain utilizza la scalatura composta e BiFPN per ottimizzare l'efficienza dei parametri, offrendo uno spettro di modelli (D0-D7) per diversi vincoli.

Questo indice viene continuamente aggiornato con il rilascio di nuovi modelli e il perfezionamento dei benchmark. Vi invitiamo a esplorare queste risorse per trovare la soluzione perfetta per il vostro prossimo progetto di computer vision. Se cercate soluzioni di livello aziendale con licenze private, visitate la pagina delle licenze. Buon confronto!


Commenti