Vai al contenuto

Ultralytics YOLO11

Panoramica

YOLO11 è l'ultima iterazione della serie Ultralytics YOLO della serie di rilevatori di oggetti in tempo reale, che ridefinisce ciò che è possibile fare con precisione, velocità ed efficienza all'avanguardia. Basandosi sugli impressionanti progressi delle precedenti versioni di YOLO , YOLO11 introduce significativi miglioramenti nell'architettura e nei metodi di addestramento, rendendolo una scelta versatile per un'ampia gamma di attività di computer vision.

Ultralytics YOLO11 Grafici di confronto

Ultralytics YOLO11 🚀 Podcast generated by NotebookLM



Guarda: Come utilizzare Ultralytics YOLO11 per il rilevamento e il tracciamento degli oggetti | Come effettuare il benchmark | YOLO11 RELEASED🚀

Caratteristiche principali

  • Estrazione di caratteristiche migliorata: YOLO11 impiega un'architettura migliorata di spina dorsale e collo, che potenzia le capacità di estrazione delle caratteristiche per un rilevamento più preciso degli oggetti e per prestazioni complesse.
  • Ottimizzato per l'efficienza e la velocità: YOLO11 introduce progetti architettonici raffinati e pipeline di addestramento ottimizzate, offrendo velocità di elaborazione più elevate e mantenendo un equilibrio ottimale tra precisione e prestazioni.
  • Maggiore precisione con meno parametri: Grazie ai progressi nella progettazione del modello, YOLO11m raggiunge una precisione media più elevata (mAP) sul dataset COCO utilizzando il 22% di parametri in meno rispetto a YOLOv8m, rendendolo efficiente dal punto di vista computazionale senza compromettere l'accuratezza.
  • Adattabilità a diversi ambienti: YOLO11 può essere distribuito senza problemi in diversi ambienti, tra cui dispositivi edge, piattaforme cloud e sistemi che supportano le GPU di NVIDIA , garantendo la massima flessibilità.
  • Ampia gamma di compiti supportati: Che si tratti di rilevamento di oggetti, segmentazione di istanze, classificazione di immagini, stima della posa o rilevamento di oggetti orientati (OBB), YOLO11 è stato progettato per rispondere a una serie di sfide di computer vision.

Attività e modalità supportate

YOLO11 si basa sulla versatile gamma di modelli introdotta in YOLOv8, offrendo un supporto migliorato per diverse attività di computer vision:

Modello Nomi di file Compito Inferenza Convalida Formazione Esportazione
YOLO11 yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt Rilevamento
YOLO11-Seg yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt Segmentazione delle istanze
YOLO11-porre yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt Pose/Punti chiave
YOLO11-obb yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt Rilevamento orientato
YOLO11-cls yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt Classificazione

Questa tabella fornisce una panoramica delle varianti del modello YOLO11 , illustrandone l'applicabilità in compiti specifici e la compatibilità con modalità operative quali Inferenza, Convalida, Formazione ed Esportazione. Questa flessibilità rende YOLO11 adatto a un'ampia gamma di applicazioni di computer vision, dal rilevamento in tempo reale a compiti di segmentazione complessi.

Metriche di prestazione

Prestazioni

Per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono 80 classi pre-addestrate, si vedano i Detection Docs.

Modello dimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOP
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9

Per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono 80 classi pre-addestrate, si veda Segmentation Docs.

Modello dimensione
(pixel)
mAPbox
50-95
mAPmask
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOP
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0

Per gli esempi di utilizzo di questi modelli addestrati su ImageNet, che includono 1000 classi pre-addestrate, si veda Classification Docs.

Modello dimensione
(pixel)
acc
top1
acc
top5
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOPs
(B) a 640
YOLO11n-cls 224 70.0 89.4 5.0 ± 0.3 1.1 ± 0.0 1.6 3.3
YOLO11s-cls 224 75.4 92.7 7.9 ± 0.2 1.3 ± 0.0 5.5 12.1
YOLO11m-cls 224 77.3 93.9 17.2 ± 0.4 2.0 ± 0.0 10.4 39.3
YOLO11l-cls 224 78.3 94.3 23.2 ± 0.3 2.8 ± 0.0 12.9 49.4
YOLO11x-cls 224 79.5 94.9 41.4 ± 0.9 3.8 ± 0.0 28.4 110.4

Vedere i Pose Estimation Docs per gli esempi di utilizzo di questi modelli addestrati su COCO, che includono una classe preaddestrata, "persona".

Modello dimensione
(pixel)
mAPpose
50-95
mAPpose
50
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOP
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2.6 ± 0.0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187.3 ± 0.8 4.9 ± 0.1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247.7 ± 1.1 6.4 ± 0.1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488.0 ± 13.9 12.1 ± 0.2 58.8 203.3

Per gli esempi di utilizzo di questi modelli addestrati su DOTAv1, che includono 15 classi pre-addestrate, si vedano i documenti sul rilevamento orientato.

Modello dimensione
(pixel)
mAPtest
50
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOP
(B)
YOLO11n-obb 1024 78.4 117.6 ± 0.8 4.4 ± 0.0 2.7 17.2
YOLO11s-obb 1024 79.5 219.4 ± 4.0 5.1 ± 0.0 9.7 57.5
YOLO11m-obb 1024 80.9 562.8 ± 2.9 10.1 ± 0.4 20.9 183.5
YOLO11l-obb 1024 81.0 712.5 ± 5.0 13.5 ± 0.6 26.2 232.0
YOLO11x-obb 1024 81.3 1408.6 ± 7.7 28.6 ± 1.0 58.8 520.2

Esempi di utilizzo

Questa sezione fornisce semplici esempi di addestramento e inferenza in YOLO11 . Per la documentazione completa su queste e altre modalità, consultare le pagine dei documenti Predict, Train, Val ed Export.

Si noti che l'esempio seguente riguarda i modelli YOLO11 Detect per il rilevamento degli oggetti. Per altre attività supportate, vedere i documenti Segment, Classify, OBB e Pose.

Esempio

PyTorch preaddestrato *.pt modelli e la configurazione *.yaml possono essere passati al metodo YOLO() per creare un'istanza del modello in Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI sono disponibili per eseguire direttamente i modelli:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citazioni e ringraziamenti

Ultralytics YOLO11 Pubblicazione

Ultralytics non ha pubblicato un documento di ricerca formale per YOLO11 a causa della natura in rapida evoluzione dei modelli. Ci concentriamo sul progresso della tecnologia e sulla sua facilità d'uso, piuttosto che sulla produzione di documentazione statica. Per le informazioni più aggiornate sull'architettura, le caratteristiche e l'utilizzo di YOLO , consultare il nostro repository GitHub e la documentazione.

Se nel vostro lavoro utilizzate YOLO11 o qualsiasi altro software di questo archivio, siete pregati di citarlo utilizzando il seguente formato:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Si noti che il DOI è in attesa e sarà aggiunto alla citazione non appena sarà disponibile. I modelli YOLO11 sono forniti con le licenze AGPL-3.0 e con licenze Enterprise.

FAQ

Quali sono i principali miglioramenti di Ultralytics YOLO11 rispetto alle versioni precedenti?

Ultralytics YOLO11 introduce diversi progressi significativi rispetto ai suoi predecessori. I principali miglioramenti includono:

  • Estrazione di caratteristiche migliorata: YOLO11 impiega un'architettura migliorata di spina dorsale e collo, potenziando le capacità di estrazione delle caratteristiche per un rilevamento più preciso degli oggetti.
  • Efficienza e velocità ottimizzate: I progetti architettonici perfezionati e le pipeline di formazione ottimizzate garantiscono una maggiore velocità di elaborazione, mantenendo un equilibrio tra precisione e prestazioni.
  • Maggiore precisione con meno parametri: YOLO11m raggiunge una precisione media superiore (mAP) sul set di dati COCO con il 22% di parametri in meno rispetto a YOLOv8m, rendendolo efficiente dal punto di vista computazionale senza compromettere l'accuratezza.
  • Adattabilità a diversi ambienti: YOLO11 può essere distribuito in diversi ambienti, compresi i dispositivi edge, le piattaforme cloud e i sistemi che supportano le GPU NVIDIA .
  • Ampia gamma di attività supportate: YOLO11 supporta diverse attività di computer vision, come il rilevamento di oggetti, la segmentazione di istanze, la classificazione di immagini, la stima della posa e il rilevamento di oggetti orientati (OBB).

Come si addestra un modello YOLO11 per il rilevamento degli oggetti?

L'addestramento di un modello YOLO11 per il rilevamento degli oggetti può essere effettuato con i comandi Python o CLI . Di seguito sono riportati esempi per entrambi i metodi:

Esempio

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Per istruzioni più dettagliate, consultare la documentazione di Train.

Quali compiti possono svolgere i modelli di YOLO11 ?

YOLO11 sono versatili e supportano un'ampia gamma di attività di computer vision, tra cui:

  • Rilevamento di oggetti: Identificazione e localizzazione di oggetti all'interno di un'immagine.
  • Segmentazione delle istanze: Rilevamento degli oggetti e delimitazione dei loro confini.
  • Classificazione delle immagini: Categorizzazione delle immagini in classi predefinite.
  • Stima della posa: Rilevamento e tracciamento di punti chiave su corpi umani.
  • Rilevamento di oggetti orientati (OBB): Rilevamento di oggetti con rotazione per una maggiore precisione.

Per ulteriori informazioni su ciascuna attività, consultare la documentazione su Rilevamento, Segmentazione delle istanze, Classificazione, Stima della posa e Rilevamento orientato.

Come fa YOLO11 a ottenere una maggiore precisione con un minor numero di parametri?

YOLO11 raggiunge una maggiore precisione con un minor numero di parametri grazie ai progressi nella progettazione del modello e nelle tecniche di ottimizzazione. L'architettura migliorata consente un'estrazione e un'elaborazione efficienti delle caratteristiche, con una conseguente maggiore precisione media (mAP) su set di dati come COCO, pur utilizzando il 22% di parametri in meno rispetto a YOLOv8m. Ciò rende YOLO11 efficiente dal punto di vista computazionale senza compromettere l'accuratezza, rendendolo adatto all'implementazione su dispositivi con risorse limitate.

YOLO11 può essere distribuito su dispositivi edge?

Sì, YOLO11 è stato progettato per adattarsi a diversi ambienti, compresi i dispositivi edge. La sua architettura ottimizzata e le sue efficienti capacità di elaborazione lo rendono adatto all'implementazione su dispositivi edge, piattaforme cloud e sistemi che supportano le GPU NVIDIA . Questa flessibilità fa sì che YOLO11 possa essere utilizzato in diverse applicazioni, dal rilevamento in tempo reale su dispositivi mobili a complesse attività di segmentazione in ambienti cloud. Per maggiori dettagli sulle opzioni di implementazione, consultare la documentazione sull'esportazione.

📅 Created 2 months ago ✏️ Updated 0 days ago

Commenti