Posen-SchÀtzung
Bei der SchÀtzung der Körperhaltung geht es darum, die Position bestimmter Punkte in einem Bild zu bestimmen, die normalerweise als Keypoints bezeichnet werden. Die Keypoints können verschiedene Teile des Objekts darstellen, z. B. Gelenke, Orientierungspunkte oder andere charakteristische Merkmale. Die Positionen der Keypoints werden in der Regel als eine Reihe von 2D [x, y]
oder 3D [x, y, visible]
Koordinaten.
Das Ergebnis eines Modells zur PosenschĂ€tzung ist eine Reihe von Punkten, die die SchlĂŒsselpunkte eines Objekts im Bild darstellen, normalerweise zusammen mit den Vertrauenswerten fĂŒr jeden Punkt. Die PosenschĂ€tzung ist eine gute Wahl, wenn du bestimmte Teile eines Objekts in einer Szene und ihre Lage zueinander identifizieren musst.
Pass auf: Pose Estimation mit Ultralytics YOLOv8 . |
Pass auf: Pose Estimation mit Ultralytics HUB. |
Tipp
YOLOv8 Pose Modelle verwenden die -pose
Suffix, d.h.. yolov8n-pose.pt
. Diese Modelle werden anhand der COCO-Keypoints Datensatz und eignen sich fĂŒr eine Vielzahl von PosenschĂ€tzungsaufgaben.
Im Standard-Positionsmodell YOLOv8 gibt es 17 Keypoints, die jeweils einen anderen Teil des menschlichen Körpers darstellen. Hier ist die Zuordnung jedes Index zu seinem jeweiligen Körpergelenk:
0: Nase 1: Linkes Auge 2: Rechtes Auge 3: Linkes Ohr 4: Rechtes Ohr 5: Linke Schulter 6: Rechte Schulter 7: Linker Ellenbogen 8: Rechter Ellenbogen 9: Linkes Handgelenk 10: Rechtes Handgelenk 11: Linke HĂŒfte 12: Rechte HĂŒfte 13: Linkes Knie 14: Rechtes Knie 15: Linker Knöchel 16: Rechter Knöchel
Modelle
YOLOv8 werden hier die vortrainierten Pose-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, wÀhrend die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | GröĂe (Pixel) |
mAPpose 50-95 |
mAPpose 50 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit A100 TensorRT (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-pose | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-pose | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-pose | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-pose | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-pose | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
- mAPval Werte sind fĂŒr ein Modell mit einer Skala auf COCO Keypoints val2017 Datensatz.
Reproduzieren durchyolo val pose data=coco-pose.yaml device=0
- Geschwindigkeit gemittelt ĂŒber die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val pose data=coco8-pose.yaml batch=1 device=0|cpu
Zug
Trainiere ein YOLOv8-pose-Modell mit dem COCO128-pose-Datensatz.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-pose.yaml") # build a new model from YAML
model = YOLO("yolov8n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolov8n-pose.yaml").load("yolov8n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640
Format des Datensatzes
YOLO pose-Datensatzformat findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO etc.) in das YOLO Format zu konvertieren, verwende bitte das JSON2YOLO Tool von Ultralytics.
Val
Validiere die Genauigkeit des trainierten YOLOv8n-pose-Modells auf dem COCO128-pose-Datensatz. Es muss kein Argument ĂŒbergeben werden, da die model
seine Ausbildung beibehÀlt data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Vorhersage
Verwende ein trainiertes YOLOv8n-pose Modell, um Vorhersagen fĂŒr Bilder zu treffen.
Beispiel
Siehe voll predict
Modus Details in der Vorhersage Seite.
exportieren
Exportiere ein YOLOv8n Posenmodell in ein anderes Format wie ONNX, CoreML, etc.
Beispiel
Die verfĂŒgbaren YOLOv8-pose Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format
Argument, d.h. format='onnx'
oder format='engine'
. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-pose.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele fĂŒr dein Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolov8n-pose.pt |
â | - |
TorchScript | torchscript |
yolov8n-pose.torchscript |
â | imgsz , optimize , batch |
ONNX | onnx |
yolov8n-pose.onnx |
â | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n-pose_openvino_model/ |
â | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n-pose.engine |
â | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolov8n-pose.mlpackage |
â | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n-pose_saved_model/ |
â | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n-pose.pb |
â | imgsz , batch |
TF Lite | tflite |
yolov8n-pose.tflite |
â | imgsz , half , int8 , batch |
TF Kante TPU | edgetpu |
yolov8n-pose_edgetpu.tflite |
â | imgsz |
TF.js | tfjs |
yolov8n-pose_web_model/ |
â | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n-pose_paddle_model/ |
â | imgsz , batch |
NCNN | ncnn |
yolov8n-pose_ncnn_model/ |
â | imgsz , half , batch |
Siehe voll export
Details in der exportieren Seite.
FAQ
Was ist Pose Estimation mit Ultralytics YOLOv8 und wie funktioniert sie?
Bei der PosenschÀtzung mit Ultralytics YOLOv8 werden bestimmte Punkte, sogenannte Keypoints, in einem Bild identifiziert. Diese Keypoints stellen normalerweise Gelenke oder andere wichtige Merkmale des Objekts dar. Die Ausgabe enthÀlt die [x, y]
Koordinaten und Vertrauenswerte fĂŒr jeden Punkt. YOLOv8-pose-Modelle sind speziell fĂŒr diese Aufgabe konzipiert und verwenden die -pose
Suffix, wie zum Beispiel yolov8n-pose.pt
. Diese Modelle werden mit DatensĂ€tzen trainiert wie COCO-Keypoints und kann fĂŒr verschiedene PosenschĂ€tzungsaufgaben verwendet werden. FĂŒr weitere Informationen besuche die Pose SchĂ€tzung Seite.
Wie kann ich ein YOLOv8-pose-Modell auf einem benutzerdefinierten Datensatz trainieren?
Um ein YOLOv8-pose-Modell auf einem benutzerdefinierten Datensatz zu trainieren, musst du ein Modell laden, entweder ein neues Modell, das in einer YAML-Datei definiert ist, oder ein bereits trainiertes Modell. Dann kannst du den Trainingsprozess mit dem von dir angegebenen Datensatz und den Parametern starten.
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-pose.yaml") # build a new model from YAML
model = YOLO("yolov8n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
Umfassende Informationen zur Ausbildung findest du im Abschnitt Ausbildung.
Wie kann ich ein trainiertes YOLOv8-pose Modell validieren?
Bei der Validierung eines YOLOv8-pose-Modells wird die Genauigkeit des Modells mit denselben Parametern des Datensatzes wie beim Training ĂŒberprĂŒft. Hier ist ein Beispiel:
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
Weitere Informationen findest du in der Sektion Val.
Kann ich ein YOLOv8-pose Modell in andere Formate exportieren und wie?
Ja, du kannst ein YOLOv8-Positionsmodell in verschiedene Formate wie ONNX, CoreML, TensorRT und andere exportieren. Dazu kannst du entweder Python oder das Command Line Interface (CLI) verwenden.
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
Weitere Informationen findest du im Abschnitt "Export".
Was sind die verfĂŒgbaren Ultralytics YOLOv8 -pose Modelle und ihre Leistungskennzahlen?
Ultralytics YOLOv8 bietet verschiedene vortrainierte Posenmodelle wie YOLOv8n-pose, YOLOv8s-pose, YOLOv8m-pose und andere. Diese Modelle unterscheiden sich in GröĂe, Genauigkeit (mAP) und Geschwindigkeit. Das Modell YOLOv8n-pose erreicht zum Beispiel einen mAPpose50-95von 50,4 und einen mAPpose50von 80,1. Eine vollstĂ€ndige Liste und Details zur Leistung findest du im Abschnitt Modelle.
Erstellt 2023-11-12, Aktualisiert 2024-07-08
Autoren: k-2feng@hotmail.com (1), glenn-jocher (20), Burhan-Q (4), RizwanMunawar (1), AyushExel (1), Laughing-q (1)