Zum Inhalt springen

Posen-SchÀtzung

Beispiele fĂŒr PosenschĂ€tzungen

Bei der SchÀtzung der Körperhaltung geht es darum, die Position bestimmter Punkte in einem Bild zu bestimmen, die normalerweise als Keypoints bezeichnet werden. Die Keypoints können verschiedene Teile des Objekts darstellen, z. B. Gelenke, Orientierungspunkte oder andere charakteristische Merkmale. Die Positionen der Keypoints werden in der Regel als eine Reihe von 2D [x, y] oder 3D [x, y, visible] Koordinaten.

Das Ergebnis eines Modells zur PosenschĂ€tzung ist eine Reihe von Punkten, die die SchlĂŒsselpunkte eines Objekts im Bild darstellen, normalerweise zusammen mit den Vertrauenswerten fĂŒr jeden Punkt. Die PosenschĂ€tzung ist eine gute Wahl, wenn du bestimmte Teile eines Objekts in einer Szene und ihre Lage zueinander identifizieren musst.


Pass auf: Pose Estimation mit Ultralytics YOLOv8 .

Pass auf: Pose Estimation mit Ultralytics HUB.

Tipp

YOLOv8 Pose Modelle verwenden die -pose Suffix, d.h.. yolov8n-pose.pt. Diese Modelle werden anhand der COCO-Keypoints Datensatz und eignen sich fĂŒr eine Vielzahl von PosenschĂ€tzungsaufgaben.

Im Standard-Positionsmodell YOLOv8 gibt es 17 Keypoints, die jeweils einen anderen Teil des menschlichen Körpers darstellen. Hier ist die Zuordnung jedes Index zu seinem jeweiligen Körpergelenk:

0: Nase 1: Linkes Auge 2: Rechtes Auge 3: Linkes Ohr 4: Rechtes Ohr 5: Linke Schulter 6: Rechte Schulter 7: Linker Ellenbogen 8: Rechter Ellenbogen 9: Linkes Handgelenk 10: Rechtes Handgelenk 11: Linke HĂŒfte 12: Rechte HĂŒfte 13: Linkes Knie 14: Rechtes Knie 15: Linker Knöchel 16: Rechter Knöchel

Modelle

YOLOv8 werden hier die vortrainierten Pose-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, wÀhrend die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.

Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.

Modell GrĂ¶ĂŸe
(Pixel)
mAPpose
50-95
mAPpose
50
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-pose 640 50.4 80.1 131.8 1.18 3.3 9.2
YOLOv8s-pose 640 60.0 86.2 233.2 1.42 11.6 30.2
YOLOv8m-pose 640 65.0 88.8 456.3 2.00 26.4 81.0
YOLOv8l-pose 640 67.6 90.0 784.5 2.59 44.4 168.6
YOLOv8x-pose 640 69.2 90.2 1607.1 3.73 69.4 263.2
YOLOv8x-pose-p6 1280 71.6 91.2 4088.7 10.04 99.1 1066.4
  • mAPval Werte sind fĂŒr ein Modell mit einer Skala auf COCO Keypoints val2017 Datensatz.
    Reproduzieren durch yolo val pose data=coco-pose.yaml device=0
  • Geschwindigkeit gemittelt ĂŒber die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu

Zug

Trainiere ein YOLOv8-pose-Modell mit dem COCO128-pose-Datensatz.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-pose.yaml").load("yolov8n-pose.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

Format des Datensatzes

YOLO pose-Datensatzformat findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO etc.) in das YOLO Format zu konvertieren, verwende bitte das JSON2YOLO Tool von Ultralytics.

Val

Validiere die Genauigkeit des trainierten YOLOv8n-pose-Modells auf dem COCO128-pose-Datensatz. Es muss kein Argument ĂŒbergeben werden, da die model seine Ausbildung beibehĂ€lt data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo pose val model=yolov8n-pose.pt  # val official model
yolo pose val model=path/to/best.pt  # val custom model

Vorhersage

Verwende ein trainiertes YOLOv8n-pose Modell, um Vorhersagen fĂŒr Bilder zu treffen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Siehe voll predict Modus Details in der Vorhersage Seite.

exportieren

Exportiere ein YOLOv8n Posenmodell in ein anderes Format wie ONNX, CoreML, etc.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-pose.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Die verfĂŒgbaren YOLOv8-pose Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format Argument, d.h. format='onnx' oder format='engine'. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-pose.onnx. Nach Abschluss des Exports werden Anwendungsbeispiele fĂŒr dein Modell angezeigt.

Format format Argument Modell Metadaten Argumente
PyTorch - yolov8n-pose.pt ✅ -
TorchScript torchscript yolov8n-pose.torchscript ✅ imgsz, optimize, batch
ONNX onnx yolov8n-pose.onnx ✅ imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-pose_openvino_model/ ✅ imgsz, half, int8, batch
TensorRT engine yolov8n-pose.engine ✅ imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-pose.mlpackage ✅ imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-pose_saved_model/ ✅ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-pose.pb ❌ imgsz, batch
TF Lite tflite yolov8n-pose.tflite ✅ imgsz, half, int8, batch
TF Kante TPU edgetpu yolov8n-pose_edgetpu.tflite ✅ imgsz
TF.js tfjs yolov8n-pose_web_model/ ✅ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-pose_paddle_model/ ✅ imgsz, batch
NCNN ncnn yolov8n-pose_ncnn_model/ ✅ imgsz, half, batch

Siehe voll export Details in der exportieren Seite.

FAQ

Was ist Pose Estimation mit Ultralytics YOLOv8 und wie funktioniert sie?

Bei der PosenschĂ€tzung mit Ultralytics YOLOv8 werden bestimmte Punkte, sogenannte Keypoints, in einem Bild identifiziert. Diese Keypoints stellen normalerweise Gelenke oder andere wichtige Merkmale des Objekts dar. Die Ausgabe enthĂ€lt die [x, y] Koordinaten und Vertrauenswerte fĂŒr jeden Punkt. YOLOv8-pose-Modelle sind speziell fĂŒr diese Aufgabe konzipiert und verwenden die -pose Suffix, wie zum Beispiel yolov8n-pose.pt. Diese Modelle werden mit DatensĂ€tzen trainiert wie COCO-Keypoints und kann fĂŒr verschiedene PosenschĂ€tzungsaufgaben verwendet werden. FĂŒr weitere Informationen besuche die Pose SchĂ€tzung Seite.

Wie kann ich ein YOLOv8-pose-Modell auf einem benutzerdefinierten Datensatz trainieren?

Um ein YOLOv8-pose-Modell auf einem benutzerdefinierten Datensatz zu trainieren, musst du ein Modell laden, entweder ein neues Modell, das in einer YAML-Datei definiert ist, oder ein bereits trainiertes Modell. Dann kannst du den Trainingsprozess mit dem von dir angegebenen Datensatz und den Parametern starten.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.yaml")  # build a new model from YAML
model = YOLO("yolov8n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)

Umfassende Informationen zur Ausbildung findest du im Abschnitt Ausbildung.

Wie kann ich ein trainiertes YOLOv8-pose Modell validieren?

Bei der Validierung eines YOLOv8-pose-Modells wird die Genauigkeit des Modells mit denselben Parametern des Datensatzes wie beim Training ĂŒberprĂŒft. Hier ist ein Beispiel:

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered

Weitere Informationen findest du in der Sektion Val.

Kann ich ein YOLOv8-pose Modell in andere Formate exportieren und wie?

Ja, du kannst ein YOLOv8-Positionsmodell in verschiedene Formate wie ONNX, CoreML, TensorRT und andere exportieren. Dazu kannst du entweder Python oder das Command Line Interface (CLI) verwenden.

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-pose.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")

Weitere Informationen findest du im Abschnitt "Export".

Was sind die verfĂŒgbaren Ultralytics YOLOv8 -pose Modelle und ihre Leistungskennzahlen?

Ultralytics YOLOv8 bietet verschiedene vortrainierte Posenmodelle wie YOLOv8n-pose, YOLOv8s-pose, YOLOv8m-pose und andere. Diese Modelle unterscheiden sich in GrĂ¶ĂŸe, Genauigkeit (mAP) und Geschwindigkeit. Das Modell YOLOv8n-pose erreicht zum Beispiel einen mAPpose50-95von 50,4 und einen mAPpose50von 80,1. Eine vollstĂ€ndige Liste und Details zur Leistung findest du im Abschnitt Modelle.



Erstellt 2023-11-12, Aktualisiert 2024-07-08
Autoren: k-2feng@hotmail.com (1), glenn-jocher (20), Burhan-Q (4), RizwanMunawar (1), AyushExel (1), Laughing-q (1)

Kommentare