Stima della posa
La stima della posa è un'attività che comporta l'identificazione della posizione di punti specifici in un'immagine, solitamente denominati punti chiave. I punti chiave possono rappresentare varie parti dell'oggetto, come articolazioni, punti di riferimento o altre caratteristiche distintive. Le posizioni dei punti chiave sono di solito rappresentate come un insieme di elementi 2D [x, y]
o 3D [x, y, visible]
coordinate.
L'output di un modello di stima della posa è un insieme di punti che rappresentano i punti chiave di un oggetto nell'immagine, di solito insieme ai punteggi di confidenza per ciascun punto. La stima della posa è una buona scelta quando è necessario identificare parti specifiche di un oggetto in una scena e la loro posizione rispetto agli altri.
Guarda: Ultralytics YOLO11 Esercitazione sulla stima della posa e sul tracciamento degli oggetti in tempo reale e sul rilevamento della posa umana
Suggerimento
YOLO11 posa i modelli utilizzano il -pose
suffisso, cioè yolo11n-pose.pt
. Questi modelli sono addestrati sulla Punti chiave COCO e sono adatti a una varietà di compiti di stima della posa.
Nel modello di posa predefinito di YOLO11 ci sono 17 punti chiave, ognuno dei quali rappresenta una parte diversa del corpo umano. Ecco la mappatura di ciascun indice alla rispettiva articolazione del corpo:
0: Naso 1: Occhio sinistro 2: Occhio destro 3: Orecchio sinistro 4: Orecchio destro 5: Spalla sinistra 6: Spalla destra 7: Gomito sinistro 8: Gomito destro 9: Polso sinistro 10: Polso destro 11: Anca sinistra 12: Anca destra 13: Ginocchio sinistro 14: Ginocchio destro 15: Caviglia sinistra 16: Caviglia destra
Modelli
YOLO11 I modelli Pose pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono stati preaddestrati sul dataset COCO, mentre i modelli Classify sono stati preaddestrati sul dataset ImageNet.
I modelli vengono scaricati automaticamente dall'ultimarelease di Ultralytics al primo utilizzo.
Modello | dimensione (pixel) |
mAPpose 50-95 |
mAPpose 50 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- mAPval I valori sono per un modello singolo a scala singola su Punti chiave COCO val2017 set di dati.
Riproduzione dayolo val pose data=coco-pose.yaml device=0
- Velocità mediata sulle immagini COCO val utilizzando una Amazon EC2 P4d istanza.
Riproduzione dayolo val pose data=coco-pose.yaml batch=1 device=0|cpu
Treno
Addestrare un modello YOLO11-pose sul dataset COCO8-pose.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640
Formato del set di dati
YOLO Il formato dei set di dati può essere consultato in dettaglio nella Guida ai set di dati. Per convertire i dataset esistenti da altri formati (come COCO, ecc.) al formato YOLO , utilizzare lo strumento JSON2YOLO di Ultralytics.
Val
Convalida del modello YOLO11n-pose addestrato precisione sul set di dati COCO8-pose. Non sono necessari argomenti, poiché il metodo model
mantiene la sua formazione data
e gli argomenti come attributi del modello.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Prevedere
Utilizzare un modello YOLO11n-pose addestrato per eseguire previsioni sulle immagini.
Esempio
Vedi tutto predict
dettagli sulla modalità nella sezione Prevedere pagina.
Esportazione
Esportazione di un modello di posa YOLO11n in un formato diverso come ONNX, CoreML, ecc.
Esempio
I formati di esportazione disponibili di YOLO11-pose sono riportati nella tabella seguente. È possibile esportare in qualsiasi formato utilizzando l'opzione format
cioè l'argomento format='onnx'
o format='engine'
. È possibile prevedere o convalidare direttamente i modelli esportati, ad es. yolo predict model=yolo11n-pose.onnx
. Al termine dell'esportazione vengono mostrati esempi di utilizzo del modello.
Formato | format Argomento |
Modello | Metadati | Argomenti |
---|---|---|---|---|
PyTorch | - | yolo11n-pose.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-pose.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-pose.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-pose_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-pose.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-pose.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-pose_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-pose.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-pose.tflite |
✅ | imgsz , half , int8 , batch |
TF Bordo TPU | edgetpu |
yolo11n-pose_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-pose_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-pose_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-pose.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-pose_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-pose_imx_model/ |
✅ | imgsz , int8 |
Vedi tutto export
dettagli nel Esportazione pagina.
FAQ
Che cos'è la stima della posa con Ultralytics YOLO11 e come funziona?
La stima della posa con Ultralytics YOLO11 comporta l'identificazione di punti specifici, noti come punti chiave, in un'immagine. Questi punti chiave rappresentano in genere articolazioni o altre caratteristiche importanti dell'oggetto. L'output include il valore [x, y]
coordinate e punteggi di confidenza per ogni punto. YOLO11 I modelli -pose sono stati progettati specificamente per questo compito e utilizzano il metodo -pose
come il suffisso yolo11n-pose.pt
. Questi modelli sono pre-addestrati su set di dati come Punti chiave COCO e può essere utilizzato per varie attività di stima della posa. Per ulteriori informazioni, visitate il sito Pagina di stima della posa.
Come posso addestrare un modello YOLO11-pose su un set di dati personalizzato?
L'addestramento di un modello YOLO11-pose su un dataset personalizzato comporta il caricamento di un modello, sia esso un nuovo modello definito da un file YAML o un modello pre-addestrato. È quindi possibile avviare il processo di addestramento utilizzando il set di dati e i parametri specificati.
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
Per informazioni dettagliate sulla formazione, consultare la sezione Formazione.
Come si convalida un modello addestrato YOLO11?
La convalida di un modello YOLO11 comporta la valutazione della sua accuratezza utilizzando gli stessi parametri del set di dati conservati durante l'addestramento. Ecco un esempio:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
Per ulteriori informazioni, visitate la sezione Val.
È possibile esportare un modello YOLO11-pose in altri formati e come?
Sì, è possibile esportare un modello YOLO11 in vari formati, come ONNX, CoreML, TensorRT e altri. È possibile farlo utilizzando Python o l'interfaccia a riga di comando (CLI).
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
Per maggiori dettagli, consultare la sezione Esportazione.
Quali sono i modelli Ultralytics YOLO11 -pose disponibili e le loro metriche di prestazione?
Ultralytics YOLO11 offre diversi modelli di posa preaddestrati, come YOLO11n-pose, YOLO11s-pose, YOLO11m-pose e altri. Questi modelli differiscono per dimensioni, precisione (mAP) e velocità. Ad esempio, il modello YOLO11n-pose raggiunge un mAPpose50-95di 50,4 e un mAPpose50di 80,1. Per un elenco completo e i dettagli sulle prestazioni, visitare la sezione Modelli.