Ultralytics YOLO11
Panoramica
YOLO11 è l'ultima iterazione della serie Ultralytics YOLO della serie di rilevatori di oggetti in tempo reale, che ridefinisce ciò che è possibile fare con precisione, velocità ed efficienza all'avanguardia. Basandosi sugli impressionanti progressi delle precedenti versioni di YOLO , YOLO11 introduce significativi miglioramenti nell'architettura e nei metodi di addestramento, rendendolo una scelta versatile per un'ampia gamma di attività di computer vision.
Guarda: Come utilizzare Ultralytics YOLO11 per il rilevamento e il tracciamento degli oggetti | Come effettuare il benchmark | YOLO11 RELEASED🚀
Caratteristiche principali
- Estrazione di caratteristiche migliorata: YOLO11 impiega un'architettura migliorata di spina dorsale e collo, che potenzia le capacità di estrazione delle caratteristiche per un rilevamento più preciso degli oggetti e per prestazioni complesse.
- Ottimizzato per l'efficienza e la velocità: YOLO11 introduce progetti architettonici raffinati e pipeline di addestramento ottimizzate, offrendo velocità di elaborazione più elevate e mantenendo un equilibrio ottimale tra precisione e prestazioni.
- Maggiore precisione con meno parametri: Grazie ai progressi nella progettazione del modello, YOLO11m raggiunge una precisione media più elevata (mAP) sul dataset COCO utilizzando il 22% di parametri in meno rispetto a YOLOv8m, rendendolo efficiente dal punto di vista computazionale senza compromettere l'accuratezza.
- Adattabilità a diversi ambienti: YOLO11 può essere distribuito senza problemi in diversi ambienti, tra cui dispositivi edge, piattaforme cloud e sistemi che supportano le GPU di NVIDIA , garantendo la massima flessibilità.
- Ampia gamma di compiti supportati: Che si tratti di rilevamento di oggetti, segmentazione di istanze, classificazione di immagini, stima della posa o rilevamento di oggetti orientati (OBB), YOLO11 è stato progettato per rispondere a una serie di sfide di computer vision.
Attività e modalità supportate
YOLO11 si basa sulla versatile gamma di modelli introdotta in YOLOv8, offrendo un supporto migliorato per diverse attività di computer vision:
Modello | Nomi di file | Compito | Inferenza | Convalida | Formazione | Esportazione |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
Rilevamento | ✅ | ✅ | ✅ | ✅ |
YOLO11-Seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
Segmentazione delle istanze | ✅ | ✅ | ✅ | ✅ |
YOLO11-porre | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
Pose/Punti chiave | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
Rilevamento orientato | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
Classificazione | ✅ | ✅ | ✅ | ✅ |
Questa tabella fornisce una panoramica delle varianti del modello YOLO11 , illustrandone l'applicabilità in compiti specifici e la compatibilità con modalità operative quali Inferenza, Convalida, Formazione ed Esportazione. Questa flessibilità rende YOLO11 adatto a un'ampia gamma di applicazioni di computer vision, dal rilevamento in tempo reale a compiti di segmentazione complessi.
Metriche di prestazione
Prestazioni
Per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono 80 classi pre-addestrate, si vedano i Detection Docs.
Modello | dimensione (pixel) |
mAPval 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono 80 classi pre-addestrate, si veda Segmentation Docs.
Modello | dimensione (pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Per gli esempi di utilizzo di questi modelli addestrati su ImageNet, che includono 1000 classi pre-addestrate, si veda Classification Docs.
Modello | dimensione (pixel) |
acc top1 |
acc top5 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOPs (B) a 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Vedere i Pose Estimation Docs per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono una classe preaddestrata, "persona".
Modello | dimensione (pixel) |
mAPpose 50-95 |
mAPpose 50 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Per gli esempi di utilizzo di questi modelli addestrati su DOTAv1, che includono 15 classi pre-addestrate, si vedano i documenti sul rilevamento orientato.
Modello | dimensione (pixel) |
mAPtest 50 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Esempi di utilizzo
Questa sezione fornisce semplici esempi di addestramento e inferenza in YOLO11 . Per la documentazione completa su queste e altre modalità, consultare le pagine dei documenti Predict, Train, Val ed Export.
Si noti che l'esempio seguente riguarda i modelli YOLO11 Detect per il rilevamento degli oggetti. Per altre attività supportate, vedere i documenti Segment, Classify, OBB e Pose.
Esempio
PyTorch preaddestrato *.pt
modelli e la configurazione *.yaml
possono essere passati al metodo YOLO()
per creare un'istanza del modello in Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI sono disponibili per eseguire direttamente i modelli:
Citazioni e ringraziamenti
Ultralytics YOLO11 Pubblicazione
Ultralytics non ha pubblicato un documento di ricerca formale per YOLO11 a causa della natura in rapida evoluzione dei modelli. Ci concentriamo sul progresso della tecnologia e sulla sua facilità d'uso, piuttosto che sulla produzione di documentazione statica. Per le informazioni più aggiornate sull'architettura, le caratteristiche e l'utilizzo di YOLO , consultare il nostro repository GitHub e la documentazione.
Se nel vostro lavoro utilizzate YOLO11 o qualsiasi altro software di questo archivio, siete pregati di citarlo utilizzando il seguente formato:
Si noti che il DOI è in attesa e sarà aggiunto alla citazione non appena sarà disponibile. I modelli YOLO11 sono forniti con le licenze AGPL-3.0 e con licenze Enterprise.
FAQ
Quali sono i principali miglioramenti di Ultralytics YOLO11 rispetto alle versioni precedenti?
Ultralytics YOLO11 introduce diversi progressi significativi rispetto ai suoi predecessori. I principali miglioramenti includono:
- Estrazione di caratteristiche migliorata: YOLO11 impiega un'architettura migliorata di spina dorsale e collo, potenziando le capacità di estrazione delle caratteristiche per un rilevamento più preciso degli oggetti.
- Efficienza e velocità ottimizzate: I progetti architettonici perfezionati e le pipeline di formazione ottimizzate garantiscono una maggiore velocità di elaborazione, mantenendo un equilibrio tra precisione e prestazioni.
- Maggiore precisione con meno parametri: YOLO11m raggiunge una precisione media superiore (mAP) sul set di dati COCO con il 22% di parametri in meno rispetto a YOLOv8m, rendendolo efficiente dal punto di vista computazionale senza compromettere l'accuratezza.
- Adattabilità a diversi ambienti: YOLO11 può essere distribuito in diversi ambienti, compresi i dispositivi edge, le piattaforme cloud e i sistemi che supportano le GPU NVIDIA .
- Ampia gamma di attività supportate: YOLO11 supporta diverse attività di computer vision, come il rilevamento di oggetti, la segmentazione di istanze, la classificazione di immagini, la stima della posa e il rilevamento di oggetti orientati (OBB).
Come si addestra un modello YOLO11 per il rilevamento degli oggetti?
L'addestramento di un modello YOLO11 per il rilevamento degli oggetti può essere effettuato con i comandi Python o CLI . Di seguito sono riportati esempi per entrambi i metodi:
Esempio
Per istruzioni più dettagliate, consultare la documentazione di Train.
Quali compiti possono svolgere i modelli di YOLO11 ?
YOLO11 sono versatili e supportano un'ampia gamma di attività di computer vision, tra cui:
- Rilevamento di oggetti: Identificazione e localizzazione di oggetti all'interno di un'immagine.
- Segmentazione delle istanze: Rilevamento degli oggetti e delimitazione dei loro confini.
- Classificazione delle immagini: Categorizzazione delle immagini in classi predefinite.
- Stima della posa: Rilevamento e tracciamento di punti chiave su corpi umani.
- Rilevamento di oggetti orientati (OBB): Rilevamento di oggetti con rotazione per una maggiore precisione.
Per ulteriori informazioni su ciascuna attività, consultare la documentazione su Rilevamento, Segmentazione delle istanze, Classificazione, Stima della posa e Rilevamento orientato.
Come fa YOLO11 a ottenere una maggiore precisione con un minor numero di parametri?
YOLO11 raggiunge una maggiore precisione con un minor numero di parametri grazie ai progressi nella progettazione del modello e nelle tecniche di ottimizzazione. L'architettura migliorata consente un'estrazione e un'elaborazione efficienti delle caratteristiche, con una conseguente maggiore precisione media (mAP) su set di dati come COCO, pur utilizzando il 22% di parametri in meno rispetto a YOLOv8m. Ciò rende YOLO11 efficiente dal punto di vista computazionale senza compromettere l'accuratezza, rendendolo adatto all'implementazione su dispositivi con risorse limitate.
YOLO11 può essere distribuito su dispositivi edge?
Sì, YOLO11 è stato progettato per adattarsi a diversi ambienti, compresi i dispositivi edge. La sua architettura ottimizzata e le sue efficienti capacità di elaborazione lo rendono adatto all'implementazione su dispositivi edge, piattaforme cloud e sistemi che supportano le GPU NVIDIA . Questa flessibilità fa sì che YOLO11 possa essere utilizzato in diverse applicazioni, dal rilevamento in tempo reale su dispositivi mobili a complesse attività di segmentazione in ambienti cloud. Per maggiori dettagli sulle opzioni di implementazione, consultare la documentazione sull'esportazione.