التتبع متعدد الأجسام مع Ultralytics YOLO
يعد تتبع الكائنات في مجال تحليلات الفيديو مهمة بالغة الأهمية لا تقتصر على تحديد موقع وفئة الكائنات داخل الإطار فحسب، بل تحتفظ أيضًا بمعرف فريد لكل كائن تم اكتشافه أثناء تقدم الفيديو. التطبيقات لا حدود لها - بدءًا من المراقبة والأمن إلى التحليلات الرياضية في الوقت الفعلي.
لماذا تختار Ultralytics YOLO لتتبع الأجسام؟
تتوافق مخرجات أجهزة التعقب Ultralytics مع أجهزة التعقب القياسية ولكن لها قيمة مضافة لمعرفات الكائنات. هذا يجعل من السهل تتبع الكائنات في تدفقات الفيديو وإجراء التحليلات اللاحقة. إليك السبب الذي يجعلك تفكر في استخدام Ultralytics YOLO لتلبية احتياجات تتبع الكائنات الخاصة بك:
- الكفاءة: معالجة تدفقات الفيديو في الوقت الفعلي دون المساس بالدقة.
- المرونة: يدعم خوارزميات وتكوينات متعددة للتتبع.
- سهولة الاستخدام: خيارات بسيطة لواجهة برمجة التطبيقات Python و CLI للتكامل والنشر السريع.
- قابلية التخصيص: سهولة الاستخدام مع نماذج YOLO المدربة المخصصة، مما يسمح بالتكامل في التطبيقات الخاصة بالمجال.
شاهد: اكتشاف الأجسام وتتبعها باستخدام Ultralytics YOLO .
التطبيقات الواقعية
النقل والمواصلات | البيع بالتجزئة | تربية الأحياء المائية |
---|---|---|
تتبُّع المركبات | تتبع الأشخاص | تتبع الأسماك |
لمحة سريعة عن الميزات
Ultralytics YOLO توسيع ميزات اكتشاف الأجسام لتوفير تتبع قوي ومتعدد الاستخدامات للأجسام:
- تتبع في الوقت الحقيقي: تتبع الأجسام بسلاسة في مقاطع الفيديو ذات معدل الإطارات العالي.
- دعم أجهزة تعقب متعددة: اختر من بين مجموعة متنوعة من خوارزميات التتبع القائمة.
- تكوينات تعقب قابلة للتخصيص: قم بتخصيص خوارزمية التتبع لتلبية متطلبات محددة من خلال ضبط المعلمات المختلفة.
أجهزة التتبع المتوفرة
Ultralytics YOLO خوارزميات التتبع التالية. يمكن تمكينها عن طريق تمرير ملف تكوين YAML ذي الصلة مثل tracker=tracker_type.yaml
:
- بوت-سورت - الاستخدام
botsort.yaml
لتمكين هذا المتتبع. - بايت تراك - الاستخدام
bytetrack.yaml
لتمكين هذا المتتبع.
المتتبع الافتراضي هو BoT-SORT.
التتبع
معلومات عتبة المتعقب
إذا كانت درجة ثقة الكائن منخفضة، أي أقل من track_high_thresh
، فلن يتم إرجاع أي مسارات وتحديثها بنجاح.
لتشغيل المتعقّب على تدفقات الفيديو، استخدم نموذج كشف أو مقطع أو وضعية مدرّب مثل YOLO11n و YOLO11n-seg و YOLO11n-pose.
مثال على ذلك
from ultralytics import YOLO
# Load an official or custom model
model = YOLO("yolo11n.pt") # Load an official Detect model
model = YOLO("yolo11n-seg.pt") # Load an official Segment model
model = YOLO("yolo11n-pose.pt") # Load an official Pose model
model = YOLO("path/to/best.pt") # Load a custom trained model
# Perform tracking with the model
results = model.track("https://youtu.be/LNwODJXcvt4", show=True) # Tracking with default tracker
results = model.track("https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # with ByteTrack
# Perform tracking with various models using the command line interface
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" # Official Detect model
yolo track model=yolo11n-seg.pt source="https://youtu.be/LNwODJXcvt4" # Official Segment model
yolo track model=yolo11n-pose.pt source="https://youtu.be/LNwODJXcvt4" # Official Pose model
yolo track model=path/to/best.pt source="https://youtu.be/LNwODJXcvt4" # Custom trained model
# Track using ByteTrack tracker
yolo track model=path/to/best.pt tracker="bytetrack.yaml"
كما يتضح من الاستخدام أعلاه، يتوفر التتبع لجميع نماذج الكشف والجزء والوضعية التي يتم تشغيلها على مقاطع الفيديو أو مصادر البث.
التكوين
معلومات عتبة المتعقب
إذا كانت درجة ثقة الكائن منخفضة، أي أقل من track_high_thresh
، فلن يتم إرجاع أي مسارات وتحديثها بنجاح.
تتبع الحجج
يشترك تكوين التتبع في الخصائص مع وضع التنبؤ، مثل conf
, iou
و show
. لمزيد من التهيئات، ارجع إلى التنبؤ صفحة النموذج.
مثال على ذلك
اختيار المتعقب
Ultralytics يسمح لك أيضًا باستخدام ملف تكوين متعقب معدّل. للقيام بذلك، ما عليك سوى إنشاء نسخة من ملف تكوين المتعقب (على سبيل المثال, custom_tracker.yaml
) من ultralytics/cfg/trackers وتعديل أي تكوينات (باستثناء تكوينات tracker_type
) حسب احتياجاتك.
مثال على ذلك
للحصول على قائمة شاملة لوسائط التتبع، راجع صفحة ultralytics/cfg/trackers.
Python أمثلة
حلقة المسارات المستمرة
فيما يلي نص Python باستخدام OpenCV (cv2
) و YOLO11 لتشغيل تتبع الكائنات على إطارات الفيديو. لا يزال هذا البرنامج النصي يفترض أنك قمت بالفعل بتثبيت الحزم الضرورية (opencv-python
و ultralytics
). إن persist=True
تخبر الوسيطة المتعقِّب أن الصورة أو الإطار الحالي هو التالي في التسلسل، وأن يتوقع مسارات من الصورة السابقة في الصورة الحالية.
دفق للحلقة مع التتبع
import cv2
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Open the video file
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)
# Loop through the video frames
while cap.isOpened():
# Read a frame from the video
success, frame = cap.read()
if success:
# Run YOLO11 tracking on the frame, persisting tracks between frames
results = model.track(frame, persist=True)
# Visualize the results on the frame
annotated_frame = results[0].plot()
# Display the annotated frame
cv2.imshow("YOLO11 Tracking", annotated_frame)
# Break the loop if 'q' is pressed
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
# Break the loop if the end of the video is reached
break
# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()
يرجى ملاحظة التغيير من model(frame)
إلى model.track(frame)
الذي يتيح تتبع الأجسام بدلاً من الاكتشاف البسيط. سيعمل هذا النص البرمجي المعدل على تشغيل المتعقب على كل إطار من الفيديو، وتصور النتائج وعرضها في نافذة. يمكن الخروج من الحلقة بالضغط على 'q'.
رسم المسارات مع مرور الوقت
يمكن أن يوفر تصور مسارات الأجسام على إطارات متتالية رؤى قيمة حول أنماط الحركة وسلوك الأجسام المكتشفة داخل الفيديو. باستخدام Ultralytics YOLO11 ، فإن رسم هذه المسارات عملية سلسة وفعالة.
في المثال التالي، نوضح في المثال التالي كيفية استخدام قدرات التتبع YOLO11 لرسم حركة الأجسام المكتشفة عبر إطارات فيديو متعددة. يتضمن هذا البرنامج النصي فتح ملف فيديو، وقراءته إطارًا بإطار، واستخدام نموذج YOLO لتحديد وتتبع الأجسام المختلفة. من خلال الاحتفاظ بالنقاط المركزية للمربعات المحدودة المكتشفة وربطها، يمكننا رسم خطوط تمثل المسارات التي تتبعها الأجسام التي تم تعقبها.
تخطيط المسارات على إطارات فيديو متعددة
from collections import defaultdict
import cv2
import numpy as np
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Open the video file
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)
# Store the track history
track_history = defaultdict(lambda: [])
# Loop through the video frames
while cap.isOpened():
# Read a frame from the video
success, frame = cap.read()
if success:
# Run YOLO11 tracking on the frame, persisting tracks between frames
results = model.track(frame, persist=True)
# Get the boxes and track IDs
boxes = results[0].boxes.xywh.cpu()
track_ids = results[0].boxes.id.int().cpu().tolist()
# Visualize the results on the frame
annotated_frame = results[0].plot()
# Plot the tracks
for box, track_id in zip(boxes, track_ids):
x, y, w, h = box
track = track_history[track_id]
track.append((float(x), float(y))) # x, y center point
if len(track) > 30: # retain 90 tracks for 90 frames
track.pop(0)
# Draw the tracking lines
points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)
# Display the annotated frame
cv2.imshow("YOLO11 Tracking", annotated_frame)
# Break the loop if 'q' is pressed
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
# Break the loop if the end of the video is reached
break
# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()
التتبع متعدد الخيوط
يوفر التتبع متعدد الخيوط القدرة على تشغيل تتبع الكائنات على تدفقات فيديو متعددة في وقت واحد. هذا مفيد بشكل خاص عند التعامل مع مدخلات فيديو متعددة، مثل المدخلات من كاميرات مراقبة متعددة، حيث يمكن للمعالجة المتزامنة أن تعزز الكفاءة والأداء بشكل كبير.
في النص البرمجي Python المقدم، نستفيد من Python's threading
لتشغيل مثيلات متعددة من المتعقب بشكل متزامن. يكون كل مؤشر ترابط مسؤول عن تشغيل المتعقب على ملف فيديو واحد، وتعمل جميع مؤشرات الترابط في وقت واحد في الخلفية.
للتأكد من أن كل مؤشر ترابط يتلقى المعلمات الصحيحة (ملف الفيديو، والنموذج المراد استخدامه وفهرس الملف)، نحدد الدالة run_tracker_in_thread
التي تقبل هذه المعلمات وتحتوي على حلقة التتبع الرئيسية. تقوم هذه الدالة بقراءة الفيديو إطارًا بإطار، وتشغيل المتعقب، وعرض النتائج.
يتم استخدام نموذجين مختلفين في هذا المثال: yolo11n.pt
و yolo11n-seg.pt
، كل كائنات تتبع في ملف فيديو مختلف. يتم تحديد ملفات الفيديو في video_file1
و video_file2
.
إن daemon=True
المتغير في threading.Thread
يعني أنه سيتم إغلاق هذه الخيوط بمجرد انتهاء البرنامج الرئيسي. ثم نبدأ تشغيل الخيوط باستخدام start()
واستخدام join()
لجعل الخيط الرئيسي ينتظر حتى ينتهي كلا خيطي المتعقب.
أخيرًا، بعد انتهاء جميع سلاسل الرسائل من مهمتها، يتم إغلاق النوافذ التي تعرض النتائج باستخدام cv2.destroyAllWindows()
.
دفق للحلقة مع التتبع
import threading
import cv2
from ultralytics import YOLO
# Define model names and video sources
MODEL_NAMES = ["yolo11n.pt", "yolo11n-seg.pt"]
SOURCES = ["path/to/video.mp4", "0"] # local video, 0 for webcam
def run_tracker_in_thread(model_name, filename):
"""
Run YOLO tracker in its own thread for concurrent processing.
Args:
model_name (str): The YOLO11 model object.
filename (str): The path to the video file or the identifier for the webcam/external camera source.
"""
model = YOLO(model_name)
results = model.track(filename, save=True, stream=True)
for r in results:
pass
# Create and start tracker threads using a for loop
tracker_threads = []
for video_file, model_name in zip(SOURCES, MODEL_NAMES):
thread = threading.Thread(target=run_tracker_in_thread, args=(model_name, video_file), daemon=True)
tracker_threads.append(thread)
thread.start()
# Wait for all tracker threads to finish
for thread in tracker_threads:
thread.join()
# Clean up and close windows
cv2.destroyAllWindows()
يمكن توسيع هذا المثال بسهولة للتعامل مع المزيد من ملفات الفيديو والنماذج من خلال إنشاء المزيد من المواضيع وتطبيق نفس المنهجية.
المساهمة بأدوات تعقب جديدة
هل أنت بارع في التتبع متعدد الأجسام ونجحت في تنفيذ أو تكييف خوارزمية تتبع مع Ultralytics YOLO ؟ ندعوك للمساهمة في قسم المتتبعين في ultralytics/cfg/trackers! يمكن لتطبيقاتك وحلولك الواقعية أن تكون ذات قيمة لا تقدر بثمن للمستخدمين الذين يعملون على مهام التتبع.
من خلال المساهمة في هذا القسم، فإنك تساعد في توسيع نطاق حلول التتبع المتاحة في إطار عمل Ultralytics YOLO ، مما يضيف طبقة أخرى من الوظائف والفائدة للمجتمع.
لبدء مساهمتك، يُرجى الرجوع إلى دليل المساهمة الخاص بنا للحصول على إرشادات شاملة حول إرسال طلب سحب (PR) 🛠️. نحن متحمسون لرؤية ما ستقدمه إلى الطاولة!
لنعمل معًا على تعزيز قدرات التتبع في النظام البيئي Ultralytics YOLO 🙏!
الأسئلة الشائعة
ما هو التتبع متعدد الكائنات وكيف يدعمه Ultralytics YOLO ؟
يتضمن التتبع متعدد الكائنات في تحليلات الفيديو كلاً من تحديد الكائنات والحفاظ على معرّف فريد لكل كائن تم اكتشافه عبر إطارات الفيديو. Ultralytics YOLO يدعم هذا الأمر من خلال توفير التتبع في الوقت الفعلي إلى جانب معرّفات الكائنات، مما يسهل مهام مثل المراقبة الأمنية والتحليلات الرياضية. يستخدم النظام أدوات تعقب مثل BoT-SORT و ByteTrack، والتي يمكن تهيئتها عبر ملفات YAML.
كيف يمكنني تكوين أداة تعقب مخصصة لـ Ultralytics YOLO ؟
يمكنك تكوين متتبع مخصص عن طريق نسخ ملف تكوين متتبع موجود (على سبيل المثال, custom_tracker.yaml
) من Ultralytics دليل تكوين المتعقب وتعديل المعلمات حسب الحاجة، باستثناء tracker_type
. استخدم هذا الملف في نموذج التتبع الخاص بك هكذا:
مثال على ذلك
كيف يمكنني تشغيل تتبع الكائنات على تدفقات فيديو متعددة في وقت واحد؟
لتشغيل تتبع الأجسام على تدفقات فيديو متعددة في وقت واحد، يمكنك استخدام Python threading
الوحدة النمطية. سيتعامل كل مؤشر ترابط مع دفق فيديو منفصل. إليك مثال على كيفية إعداد ذلك:
التتبع متعدد الخيوط
import threading
import cv2
from ultralytics import YOLO
# Define model names and video sources
MODEL_NAMES = ["yolo11n.pt", "yolo11n-seg.pt"]
SOURCES = ["path/to/video.mp4", "0"] # local video, 0 for webcam
def run_tracker_in_thread(model_name, filename):
"""
Run YOLO tracker in its own thread for concurrent processing.
Args:
model_name (str): The YOLO11 model object.
filename (str): The path to the video file or the identifier for the webcam/external camera source.
"""
model = YOLO(model_name)
results = model.track(filename, save=True, stream=True)
for r in results:
pass
# Create and start tracker threads using a for loop
tracker_threads = []
for video_file, model_name in zip(SOURCES, MODEL_NAMES):
thread = threading.Thread(target=run_tracker_in_thread, args=(model_name, video_file), daemon=True)
tracker_threads.append(thread)
thread.start()
# Wait for all tracker threads to finish
for thread in tracker_threads:
thread.join()
# Clean up and close windows
cv2.destroyAllWindows()
ما هي التطبيقات الواقعية للتتبع متعدد الأجسام باستخدام Ultralytics YOLO ؟
التتبع متعدد الأجسام باستخدام Ultralytics YOLO له العديد من التطبيقات، بما في ذلك:
- وسائل النقل: تتبع المركبات لإدارة حركة المرور والقيادة الذاتية.
- البيع بالتجزئة: تتبع الأشخاص للتحليلات والأمان داخل المتجر.
- تربية الأحياء المائية: تتبع الأسماك لرصد البيئات المائية.
تستفيد هذه التطبيقات من قدرة Ultralytics YOLO على معالجة مقاطع الفيديو ذات معدل الإطارات العالي في الوقت الفعلي.
كيف يمكنني تصور مسارات الكائنات عبر إطارات فيديو متعددة باستخدام Ultralytics YOLO ؟
لتصور مسارات الأجسام عبر إطارات فيديو متعددة، يمكنك استخدام ميزات التتبع في نموذج YOLO مع OpenCV لرسم مسارات الأجسام المكتشفة. إليك مثال نصي يوضح ذلك:
تخطيط المسارات على إطارات فيديو متعددة
from collections import defaultdict
import cv2
import numpy as np
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)
track_history = defaultdict(lambda: [])
while cap.isOpened():
success, frame = cap.read()
if success:
results = model.track(frame, persist=True)
boxes = results[0].boxes.xywh.cpu()
track_ids = results[0].boxes.id.int().cpu().tolist()
annotated_frame = results[0].plot()
for box, track_id in zip(boxes, track_ids):
x, y, w, h = box
track = track_history[track_id]
track.append((float(x), float(y)))
if len(track) > 30:
track.pop(0)
points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)
cv2.imshow("YOLO11 Tracking", annotated_frame)
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
break
cap.release()
cv2.destroyAllWindows()
سيقوم هذا النص البرمجي برسم خطوط التتبع التي توضح مسارات حركة الأجسام المتعقبة مع مرور الوقت.