تقدير الوضعية
تقدير الوضعية هي مهمة تتضمن تحديد موقع نقاط محددة في الصورة، ويشار إليها عادةً بالنقاط الرئيسية. يمكن أن تمثل النقاط الرئيسية أجزاءً مختلفة من الجسم مثل المفاصل أو المعالم أو السمات المميزة الأخرى. عادةً ما يتم تمثيل مواقع النقاط الرئيسية على هيئة مجموعة من 2D [x, y]
أو ثلاثي الأبعاد [x, y, visible]
الإحداثيات.
يكون ناتج نموذج تقدير الوضعية عبارة عن مجموعة من النقاط التي تمثل النقاط الرئيسية على كائن ما في الصورة، وعادةً ما تكون مصحوبة بدرجات الثقة لكل نقطة. يعد تقدير الوضعية خيارًا جيدًا عندما تحتاج إلى تحديد أجزاء معينة من كائن ما في المشهد، وموقعها بالنسبة لبعضها البعض.
شاهد: Ultralytics YOLO11 برنامج تعليمي لتقدير الوضعية |تعقب الأجسام في الوقت الحقيقي واكتشاف الوضعية البشرية
نصيحة
YOLO11 تشكل تستخدم النماذج -pose
اللاحقة، أي yolo11n-pose.pt
. يتم تدريب هذه النماذج على النقاط الرئيسية لـ COCO مجموعة البيانات وهي مناسبة لمجموعة متنوعة من مهام تقدير الوضعية.
في نموذج الوضعية الافتراضي YOLO11 ، هناك 17 نقطة رئيسية، تمثل كل منها جزءاً مختلفاً من جسم الإنسان. فيما يلي تعيين كل مؤشر لمفصل الجسم الخاص به:
- الأنف
- العين اليسرى
- العين اليمنى
- الأذن اليسرى
- الأذن اليمنى
- الكتف الأيسر
- الكتف الأيمن
- المرفق الأيسر
- المرفق الأيمن
- المعصم الأيسر
- المعصم الأيمن
- الورك الأيسر
- الورك الأيمن
- الركبة اليسرى
- الركبة اليمنى
- الكاحل الأيسر
- الكاحل الأيمن
النماذج
تظهر هنا نماذج الوضعية التي تم تدريبها مسبقًا علىYOLO11 Ultralytics YOLO11 . تم تدريب نماذج الكشف والقطعة والوضعية مسبقًا على مجموعة بيانات COCO، بينما تم تدريب نماذج التصنيف مسبقًا على مجموعة بيانات ImageNet.
يتم تنزيل النماذج تلقائياً من أحدثإصدار Ultralytics عند الاستخدام الأول.
الطراز | الحجم (بكسل) |
mAPpose 50-95 |
mAPpose 50 |
السرعة CPU ONNX (مللي ثانية) |
السرعة T4 T4TensorRT10 (مللي ثانية) |
بارامز (م) |
(ب) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-بوز | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
- مافال القيم هي لنموذج واحد بمقياس واحد على COCO Keypoints val2017 مجموعة البيانات.
إعادة الإنتاج بواسطةyolo val pose data=coco-pose.yaml device=0
- السرعة متوسطها على صور COCO val باستخدام أمازون إي سي 2 بي 4 دي على سبيل المثال.
إعادة الإنتاج بواسطةyolo val pose data=coco-pose.yaml batch=1 device=0|cpu
القطار
تدريب نموذج YOLO11 على مجموعة بيانات COCO8-pose. مجموعة بيانات COCO8-pose هي مجموعة بيانات نموذجية صغيرة مثالية لاختبار نماذج تقدير الوضعية وتصحيحها.
مثال على ذلك
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-pose.yaml").load("yolo11n-pose.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-pose.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo pose train data=coco8-pose.yaml model=yolo11n-pose.yaml pretrained=yolo11n-pose.pt epochs=100 imgsz=640
تنسيق مجموعة البيانات
يمكن الاطلاع على تنسيق مجموعة بيانات وضعية YOLO بالتفصيل في دليل مجموعة البيانات. لتحويل مجموعة بياناتك الحالية من تنسيقات أخرى (مثل COCO وما إلى ذلك) إلى تنسيق YOLO يُرجى استخدام أداة JSON2YOLO من Ultralytics.
بالنسبة لمهام تقدير الوضعية المخصصة، يمكنك أيضًا استكشاف مجموعات بيانات متخصصة مثل Tiger-Pose لتقدير وضعية الحيوانات، أو Hand Keypoints لتتبع اليد، أو Dog-Pose لتحليل وضعية الكلاب.
فال
التحقق من صحة نموذج YOLO11n-pose المدرّب الدقة على مجموعة بيانات COCO8-pose. لا حاجة إلى أي وسيطات لأن model
تحتفظ بتدريبها data
والوسائط كسمات نموذجية.
مثال على ذلك
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
التنبؤ
استخدم نموذج YOLO11n-pose المدرّب لتشغيل تنبؤات على الصور. يتيح لك وضع التنبؤ إجراء الاستدلال على الصور أو مقاطع الفيديو أو التدفقات في الوقت الفعلي.
مثال على ذلك
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg") # predict on an image
# Access the results
for result in results:
xy = result.keypoints.xy # x and y coordinates
xyn = result.keypoints.xyn # normalized
kpts = result.keypoints.data # x, y, visibility (if available)
انظر بالكامل predict
تفاصيل الوضع في التنبؤ الصفحة.
التصدير
قم بتصدير نموذج YOLO11n Pose إلى تنسيق مختلف مثل ONNX أو CoreML إلخ. يتيح لك ذلك نشر نموذجك على منصات وأجهزة مختلفة للاستدلال في الوقت الحقيقي.
مثال على ذلك
ترد تنسيقات التصدير المتاحة YOLO11-pose في الجدول أدناه. يمكنك التصدير إلى أي تنسيق باستخدام format
الحجة، أي format='onnx'
أو format='engine'
. يمكنك التنبؤ أو التحقق من الصحة مباشرةً على النماذج المصدرة، أي yolo predict model=yolo11n-pose.onnx
. تظهر أمثلة الاستخدام للنموذج الخاص بك بعد اكتمال التصدير.
التنسيق | format الجدال |
الطراز | البيانات الوصفية | الحجج |
---|---|---|---|---|
PyTorch | - | yolo11n-pose.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-pose.torchscript |
✅ | imgsz , optimize , nms , batch |
ONNX | onnx |
yolo11n-pose.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch |
OpenVINO | openvino |
yolo11n-pose_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data |
TensorRT | engine |
yolo11n-pose.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data |
CoreML | coreml |
yolo11n-pose.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-pose_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch |
TF GraphDef | pb |
yolo11n-pose.pb |
❌ | imgsz , batch |
TF لايت | tflite |
yolo11n-pose.tflite |
✅ | imgsz , half , int8 , nms , batch , data |
TF إيدج TPU | edgetpu |
yolo11n-pose_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-pose_web_model/ |
✅ | imgsz , half , int8 , nms , batch |
PaddlePaddle | paddle |
yolo11n-pose_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-pose.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-pose_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-pose_imx_model/ |
✅ | imgsz , int8 , data |
ر.ك.ن.ن.ن | rknn |
yolo11n-pose_rknn_model/ |
✅ | imgsz , batch , name |
انظر بالكامل export
التفاصيل في التصدير الصفحة.
الأسئلة الشائعة
ما هو تقدير الوضعية باستخدام Ultralytics YOLO11 وكيف يعمل؟
يتضمن تقدير الوضعية باستخدام Ultralytics YOLO11 تحديد نقاط معينة، تُعرف باسم النقاط الرئيسية، في الصورة. تمثل نقاط المفاتيح هذه عادةً المفاصل أو غيرها من السمات المهمة للجسم. تتضمن المخرجات [x, y]
الإحداثيات ودرجات الثقة لكل نقطة. YOLO11-صُممت نماذج الأغراض خصيصًا لهذه المهمة وتستخدم -pose
اللاحقة، مثل yolo11n-pose.pt
. يتم تدريب هذه النماذج مسبقًا على مجموعات بيانات مثل النقاط الرئيسية لـ COCO ويمكن استخدامها في مهام تقدير الوضعيات المختلفة. لمزيد من المعلومات، يرجى زيارة صفحة تقدير الوضعية.
كيف يمكنني تدريب نموذج YOLO11-pose على مجموعة بيانات مخصصة؟
يتضمّن تدريب نموذج YOLO11-pose على مجموعة بيانات مخصصة تحميل نموذج، إما نموذج جديد مُعرّف بواسطة ملف YAML أو نموذج مُدرّب مسبقًا. يمكنك بعد ذلك بدء عملية التدريب باستخدام مجموعة البيانات والمعلمات المحددة.
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.yaml") # build a new model from YAML
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
للحصول على تفاصيل شاملة حول التدريب، راجع قسم التدريب. يمكنك أيضًا استخدام Ultralytics HUB للحصول على نهج بدون تعليمات برمجية لتدريب نماذج تقدير الوضعية المخصصة.
كيف يمكنني التحقق من صحة نموذج YOLO11-pose المدرّب؟
تتضمن عملية التحقق من صحة نموذج YOLO11-الغرض تقييم دقته باستخدام نفس معلمات مجموعة البيانات التي تم الاحتفاظ بها أثناء التدريب. إليك مثالاً على ذلك:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
لمزيد من المعلومات، يرجى زيارة قسم فال.
هل يمكنني تصدير نموذج YOLO11-pose إلى تنسيقات أخرى، وكيف؟
نعم، يمكنك تصدير نموذج YOLO11-pose إلى صيغ مختلفة مثل ONNX و CoreML و TensorRT وغيرها. يمكن القيام بذلك إما باستخدام Python أو واجهة سطر الأوامر (CLI).
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom trained model
# Export the model
model.export(format="onnx")
راجع قسم التصدير لمزيد من التفاصيل. يمكن نشر النماذج المصدرة على الأجهزة المتطورة للتطبيقات في الوقت الفعلي مثل تتبع اللياقة البدنية أو التحليل الرياضي أو الروبوتات.
ما هي النماذج المتوفرة Ultralytics YOLO11 -الغرض ومقاييس أدائها؟
تقدم Ultralytics YOLO11 العديد من نماذج الوضعيات المدربة مسبقًا مثل YOLO11n-pose و YOLO11s-pose و YOLO11m-pose وغيرها. تختلف هذه النماذج في الحجم والدقة (mAP) والسرعة. على سبيل المثال، يحقق الطراز YOLO11n-pose دقة (mAPpose50-95) تبلغ 50.0 و(mAPpose50) تبلغ 81.0. للاطلاع على قائمة كاملة وتفاصيل الأداء، يرجى زيارة قسم النماذج.