تخطي إلى المحتوى

YOLOv5 البداية السريعة 🚀

انطلق في رحلتك إلى عالم ديناميكي لاكتشاف الأجسام في الوقت الفعلي باستخدام YOLOv5! تم تصميم هذا الدليل ليكون بمثابة نقطة انطلاق شاملة لعشاق الذكاء الاصطناعي والمحترفين الذين يهدفون إلى إتقان YOLOv5. بدءًا من الإعداد الأولي إلى تقنيات التدريب المتقدمة، لقد قمنا بتغطيتك. بنهاية هذا الدليل، ستكون لديك المعرفة اللازمة لتطبيق YOLOv5 في مشاريعك بثقة. لنشعل المحركات ونحلق في YOLOv5!

التثبيت

استعد للإطلاق من خلال استنساخ المستودع وإنشاء البيئة. يضمن ذلك تثبيت جميع المتطلبات الضرورية. تحقق من أن لديك Python>=3.8.0 و PyTorch>=1.8 جاهز للإقلاع.

git clone https://github.com/ultralytics/yolov5  # clone repository
cd yolov5
pip install -r requirements.txt  # install dependencies

الاستدلال بـ PyTorch المحور

جرب بساطة الاستدلال YOLOv5 PyTorch Hub، حيث يتم تنزيل النماذج بسلاسة من أحدثإصدار YOLOv5 .

import torch

# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s")  # Can be 'yolov5n' - 'yolov5x6', or 'custom'

# Inference on images
img = "https://ultralytics.com/images/zidane.jpg"  # Can be a file, Path, PIL, OpenCV, numpy, or list of images

# Run inference
results = model(img)

# Display results
results.print()  # Other options: .show(), .save(), .crop(), .pandas(), etc.

الاستدلال باستخدام detect.py

تسخير detect.py للاستدلال متعدد الاستخدامات على مصادر مختلفة. يجلب تلقائيًا الموديلات من أحدث YOLOv5 الإصدار ويحفظ النتائج بكل سهولة.

python detect.py --weights yolov5s.pt --source 0                               # webcam
                                               image.jpg                       # image
                                               video.mp4                       # video
                                               screen                          # screenshot
                                               path/                           # directory
                                               list.txt                        # list of images
                                               list.streams                    # list of streams
                                               'path/*.jpg'                    # glob
                                               'https://youtu.be/LNwODJXcvt4'  # YouTube
                                               'rtsp://example.com/media.mp4'  # RTSP, RTMP, HTTP stream

التدريب

تكرار YOLOv5 كوكو المعايير مع التعليمات أدناه. ما يلزم الموديلات و مجموعات البيانات يتم سحبها مباشرةً من أحدث YOLOv5 الإصدار. يجب أن يستغرق تدريب YOLOv5n/إم/إم/ل/إكس على V100 GPU عادةً 1/2/4/6/8 أيام على التوالي (لاحظ أن متعددGPU تعمل الإعدادات بشكل أسرع). حقق أقصى قدر من الأداء باستخدام أعلى مستوى ممكن --batch-size أو استخدام --batch-size -1 لـ YOLOv5 الدفع التلقائي الميزة. ما يلي أحجام الدفعات مثالية لوحدات معالجة الرسومات V100-16GB.

python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5n.yaml  --batch-size 128
                                                                 yolov5s                    64
                                                                 yolov5m                    40
                                                                 yolov5l                    24
                                                                 yolov5x                    16

YOLO منحنيات التدريب

وفي الختام، فإن YOLOv5 ليس فقط أداة متطورة لاكتشاف الأجسام، بل هو أيضًا شهادة على قوة التعلم الآلي في تحويل الطريقة التي نتفاعل بها مع العالم من خلال الفهم البصري. بينما تتقدم من خلال هذا الدليل وتبدأ في تطبيق YOLOv5 على مشاريعك، تذكر أنك في طليعة ثورة تكنولوجية قادرة على تحقيق إنجازات رائعة. إذا كنت بحاجة إلى مزيد من الرؤى أو الدعم من زملائك أصحاب الرؤى، فأنت مدعو إلى مستودع GitHub الخاص بنا الذي يضم مجتمعًا مزدهرًا من المطورين والباحثين. استمر في الاستكشاف، واستمر في الابتكار، واستمتع بأعاجيب YOLOv5. استكشاف سعيد! 🌠🔍

📅 تم إنشاؤها منذ 1 سنة مضت ✏️ تم التحديث منذ 2 شهر

التعليقات