Overslaan naar inhoud

Schatting van de houding

Voorbeelden van houding schatten

Het schatten van de houding is een taak waarbij de locatie van specifieke punten in een afbeelding, meestal sleutelpunten genoemd, wordt geïdentificeerd. De toetspunten kunnen verschillende delen van het object vertegenwoordigen, zoals gewrichten, herkenningspunten of andere onderscheidende kenmerken. De locaties van de toetspunten worden meestal weergegeven als een set 2D [x, y] of 3D [x, y, visible] coördinaten.

De uitvoer van een model voor het schatten van de houding is een verzameling punten die de sleutelpunten op een object in de afbeelding vertegenwoordigen, meestal samen met de betrouwbaarheidsscores voor elk punt. Pose estimation is een goede keuze als je specifieke delen van een object in een scène moet identificeren, en hun locatie ten opzichte van elkaar.


Kijken: Schatting van de houding met Ultralytics YOLOv8 .

Kijken: Schatting van de houding met Ultralytics HUB.

Tip

YOLOv8 houding modellen gebruiken de -pose achtervoegsel, dus yolov8n-pose.pt. Deze modellen worden getraind op de COCO kernpunten dataset en zijn geschikt voor een verscheidenheid aan pose-schattingstaken.

In het standaard YOLOv8 posemodel zijn er 17 sleutelpunten, die elk een ander deel van het menselijk lichaam vertegenwoordigen. Hier is de toewijzing van elke index aan zijn respectievelijke lichaamsgewricht:

0: Neus 1: Linkeroog 2: Rechteroog 3: Linkeroor 4: Rechter Oor 5: Linkerschouder 6: Rechter Schouder 7: Linker Elleboog 8: Rechterelleboog 9: Linker Pols 10: Rechter Pols 11: Linkerheup 12: Rechterheup 13: Linker knie 14: Rechter knie 15: Linkerenkel 16: Rechter enkel

Modellen

YOLOv8 voorgetrainde Pose-modellen worden hier getoond. Detect, Segment en Pose modellen zijn voorgetraind op de COCO dataset, terwijl Classify modellen zijn voorgetraind op de ImageNet dataset.

Modellen worden bij het eerste gebruik automatisch gedownload van de nieuwste Ultralytics release.

Model grootte
(pixels)
mAPpose
50-95
mAPpose
50
Snelheid
CPU ONNX
(ms)
Snelheid
A100 TensorRT
(ms)
params
(M)
FLOP's
(B)
YOLOv8n-pose 640 50.4 80.1 131.8 1.18 3.3 9.2
YOLOv8s-pose 640 60.0 86.2 233.2 1.42 11.6 30.2
YOLOv8m-pose 640 65.0 88.8 456.3 2.00 26.4 81.0
YOLOv8l-pose 640 67.6 90.0 784.5 2.59 44.4 168.6
YOLOv8x-pose 640 69.2 90.2 1607.1 3.73 69.4 263.2
YOLOv8x-pose-p6 1280 71.6 91.2 4088.7 10.04 99.1 1066.4
  • mAPval waarden zijn voor één model met één schaal op COCO Kernpunten val2017 dataset.
    Reproduceren door yolo val pose data=coco-pose.yaml device=0
  • Snelheid gemiddeld over COCO-valbeelden met behulp van een Amazon EC2 P4d voorbeeld.
    Reproduceren door yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu

Trein

Train een YOLOv8-pose model op de COCO128-pose dataset.

Voorbeeld

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-pose.yaml").load("yolov8n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

Formaat dataset

YOLO Het formaat van de pose dataset is in detail te vinden in de Dataset Gids. Om je bestaande dataset van andere formaten (zoals COCO etc.) te converteren naar het YOLO formaat, gebruik je het JSON2YOLO hulpmiddel van Ultralytics.

Val

Valideer de nauwkeurigheid van het getrainde YOLOv8n-pose model op de COCO128 -pose dataset. Er hoeft geen argument te worden doorgegeven als de model behoudt zijn opleiding data en argumenten als modelattributen.

Voorbeeld

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolov8n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

Voorspel

Gebruik een getraind YOLOv8n-pose model om voorspellingen op afbeeldingen uit te voeren.

Voorbeeld

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Bekijk volledig predict details over de modus in de Voorspel pagina.

Exporteer

Exporteer een YOLOv8n Pose model naar een ander formaat zoals ONNX, CoreML, enz.

Voorbeeld

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Beschikbare YOLOv8-pose exportformaten staan in de tabel hieronder. Je kunt naar elk formaat exporteren met de format argument, d.w.z. format='onnx' of format='engine'. Je kunt direct voorspellen of valideren op geëxporteerde modellen, d.w.z. yolo predict model=yolov8n-pose.onnx. Gebruiksvoorbeelden worden getoond voor je model nadat het exporteren is voltooid.

Formaat format Argument Model Metagegevens Argumenten
PyTorch - yolov8n-pose.pt -
TorchScript torchscript yolov8n-pose.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-pose.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-pose_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-pose.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-pose.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-pose_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-pose.pb imgsz, batch
TF Lite tflite yolov8n-pose.tflite imgsz, half, int8, batch
TF Rand TPU edgetpu yolov8n-pose_edgetpu.tflite imgsz
TF.js tfjs yolov8n-pose_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-pose_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-pose_ncnn_model/ imgsz, half, batch

Bekijk volledig export details in de Exporteer pagina.

FAQ

Wat is Pose Estimation met Ultralytics YOLOv8 en hoe werkt het?

Het schatten van de houding met Ultralytics YOLOv8 omvat het identificeren van specifieke punten, die sleutelpunten worden genoemd, in een afbeelding. Deze sleutelpunten vertegenwoordigen meestal gewrichten of andere belangrijke kenmerken van het object. De uitvoer omvat de [x, y] coördinaten en betrouwbaarheidsscores voor elk punt. YOLOv8-pose modellen zijn speciaal ontworpen voor deze taak en gebruiken de -pose achtervoegsel, zoals yolov8n-pose.pt. Deze modellen zijn voorgetraind op datasets zoals COCO kernpunten en kan gebruikt worden voor verschillende pose-schattingstaken. Bezoek voor meer informatie de Houdingsschatting Pagina.

Hoe kan ik een YOLOv8-pose model trainen op een aangepaste dataset?

Het trainen van een YOLOv8-pose model op een aangepaste dataset bestaat uit het laden van een model, ofwel een nieuw model gedefinieerd door een YAML-bestand of een vooraf getraind model. Je kunt dan het trainingsproces starten met je opgegeven dataset en parameters.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

Raadpleeg het hoofdstuk Trainen voor uitgebreide informatie over training.

Hoe valideer ik een getraind YOLOv8-pose model?

Validatie van een YOLOv8-pose model houdt in dat de nauwkeurigheid ervan wordt beoordeeld met behulp van dezelfde datasetparameters die tijdens de training zijn gebruikt. Hier is een voorbeeld:

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

Ga voor meer informatie naar de sectie Val.

Kan ik een YOLOv8-pose model exporteren naar andere formaten, en hoe?

Ja, je kunt een YOLOv8-pose model exporteren naar verschillende formaten zoals ONNX, CoreML, TensorRT, en meer. Dit kun je doen met Python of de Command Line Interface (CLI).

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

Raadpleeg het hoofdstuk Exporteren voor meer informatie.

Wat zijn de beschikbare Ultralytics YOLOv8 -pose modellen en hun prestatiecijfers?

Ultralytics YOLOv8 biedt verschillende voorgetrainde pose-modellen zoals YOLOv8n-pose, YOLOv8s-pose, YOLOv8m-pose. Deze modellen verschillen in grootte, nauwkeurigheid (mAP) en snelheid. Het model YOLOv8n-pose haalt bijvoorbeeld een mAPpose50-95van 50,4 en een mAPpose50van 80,1. Ga voor een volledige lijst en prestatiedetails naar het gedeelte Modellen.



Aangemaakt 2023-11-12, Bijgewerkt 2024-07-08
Auteurs: k-2feng@hotmail.com (1), glenn-jocher (20), Burhan-Q (4), RizwanMunawar (1), AyushExel (1), Laughing-q (1)

Reacties