الرئيسية
نقدم لكم Ultralytics YOLO26، أحدث إصدار من نموذج الكشف عن الأجسام وتقسيم الصور في الوقت الفعلي الذي نال استحساناً واسعاً. تم تطوير YOLO26 بالاعتماد على أحدث التطورات في مجالي التعلم العميق والرؤية الحاسوبية، ويتميز باستدلال شامل NMS ونشر محسّن على الحافة. ويجعله تصميمه المبسط مناسباً لمختلف التطبيقات وقابلاً للتكيف بسهولة مع منصات الأجهزة المختلفة، بدءاً من الأجهزة الطرفية وصولاً إلى واجهات برمجة التطبيقات السحابية. ولأحمال العمل الإنتاجية المستقرة، فإن كلاً من YOLO26 و YOLO11 .
تعرّف على " Ultralytics "، وهو مرجع شامل مصمم لمساعدتك على فهم ميزات وإمكانيات YOLO والاستفادة منها. وسواء كنت خبيرًا متمرسًا في مجال التعلم الآلي أو مبتدئًا في هذا المجال، فإن هذا المركز يهدف إلى تحقيق أقصى استفادة من إمكانات YOLO في مشاريعك.
اطلب ترخيصًا مؤسسيًا للاستخدام التجاري من خلال Ultralytics .
من أين أبدأ؟
ابدأ
تثبيت
ultralyticsباستخدام pip وابدأ العمل في غضون دقائق لتدريب YOLOتوقع
توقع الصور والفيديوهات والبث المباشر الجديد باستخدام YOLO
تدريب نموذج
قم بتدريب YOLO جديد من الصفر باستخدام مجموعة البيانات المخصصة الخاصة بك، أو قم بتحميل نموذج مُدرب مسبقًا وتدريبه
اكتشف مهام الرؤية الحاسوبية
اكتشف YOLO مثل detect segment، classify، وتحديد الوضع، وOBB، track
اكتشف YOLO26 🚀 جديد
اكتشف أحدث نماذج YOLO26 Ultralytics التي تتميز باستدلال NMS وتحسين الأداء على الحافة
SAM : تقسيم أي شيء باستخدام المفاهيم 🚀 جديد
أحدث إصدار من SAM من Meta مع ميزة "تجزئة المفاهيم" (Promptable Concept Segmentation) - segment الحالات باستخدام أمثلة نصية أو صورية
مفتوح المصدر، AGPL-3.0
Ultralytics YOLO : AGPL-3.0 Enterprise. اكتشف YOLO GitHub.
شاهد: كيفية تدريب نموذج YOLO26 على مجموعة البيانات المخصصة الخاصة بك في Google Colab.
YOLO: نبذة تاريخية
YOLO (You Only Look Once)، وهو نموذج شائع للكشف عن الأجسام وتقسيم الصور ، تم تطويره بواسطة جوزيف ريدمون وعلي فارهادي في جامعة واشنطن. تم إطلاق YOLO في عام 2015، YOLO شعبية بفضل سرعته العالية ودقته.
- أدى نموذج YOLOv2، الذي تم إصداره في عام 2016، إلى تحسين النموذج الأصلي من خلال دمج تطبيع الدُفعات، ومربعات التثبيت، ومجموعات الأبعاد.
- أدى نموذج YOLOv3، الذي تم إطلاقه في عام 2018، إلى تحسين أداء النموذج بشكل أكبر من خلال استخدام شبكة أساسية أكثر كفاءة، ونقاط ربط متعددة، وتقنية التجميع الهرمي المكاني.
- تم إصدار YOLOv4 في عام 2020، حيث قدم ابتكارات مثل تقنية تعزيز البيانات"Mosaic"، ورأس كشف جديد بدون نقاط ربط، ودالة خسارة جديدة.
- YOLOv5 حسّن أداء النموذج بشكل أكبر وأضاف ميزات جديدة مثل تحسين المعلمات الفائقة، وتتبع التجارب المتكامل، والتصدير التلقائي إلى تنسيقات التصدير الشائعة.
- YOLOv6 تم إصداره كمصدر مفتوح من قبل Meituan في عام 2022 ويستخدم في العديد من روبوتات التوصيل ذاتية القيادة التابعة للشركة.
- YOLOv7 أضاف مهام إضافية مثل تقدير الوضع على مجموعة بيانات COCO .
- YOLOv8 الذي أطلقته شركة Ultralytics في عام 2023، قدم ميزات وتحسينات جديدة لتعزيز الأداء والمرونة والكفاءة، ودعم مجموعة كاملة من مهام الذكاء الاصطناعي في مجال الرؤية.
- YOLOv9 يقدم طرقًا مبتكرة مثل معلومات التدرج القابلة للبرمجة (PGI) وشبكة التجميع الفعالة للطبقات المعممة (GELAN).
- YOLOv10 الذي ابتكره باحثون من جامعة تسينغهوا باستخدام Ultralytics، Python يوفر تحسينات في مجال الكشف عن الأجسام في الوقت الفعلي من خلال إدخال رأس End-to-End الذي يلغي متطلبات Non-Maximum Suppression (NMS).
- YOLO11: تم إصدار YOLO11 في سبتمبر 2024، YOLO11 أداءً ممتازًا في العديد من المهام، بما في ذلك اكتشاف الكائنات، والتجزئة، وتقدير الوضع، والتتبع، والتصنيف، مما يتيح استخدامه في تطبيقات ومجالات متنوعة في مجال الذكاء الاصطناعي.
- YOLO26 🚀: YOLO من الجيل التالي Ultralytics المُحسَّن للنشر على الأجهزة الطرفية مع استدلال شامل NMS.
YOLO : كيف يتمYOLO Ultralytics YOLO ؟
Ultralytics خيارين للترخيص لتلبية احتياجات حالات الاستخدام المتنوعة:
- AGPL-3.0 : هذه الرخصة مفتوحة المصدر المعتمدة من منظمة OSI مثالية للطلاب والمتحمسين، حيث تشجع على التعاون المفتوح وتبادل المعرفة. راجع ملف LICENSE لمزيد من التفاصيل.
- ترخيص المؤسسات: صُمم هذا الترخيص للاستخدام التجاري، ويتيح التكامل السلس Ultralytics ونماذج الذكاء الاصطناعي في السلع والخدمات التجارية، متجاوزًا متطلبات البرمجيات مفتوحة المصدر التي تنص عليها AGPL-3.0 إذا كان سيناريو عملك يتضمن دمج حلولنا في عرض تجاري، فيُرجى التواصل معنا عبر Ultralytics .
تم تصميم استراتيجيتنا الخاصة بالترخيص بهدف ضمان إعادة أي تحسينات تُدخل على مشاريعنا مفتوحة المصدر إلى المجتمع. نحن نؤمن بمبدأ البرمجيات مفتوحة المصدر، وتتمثل مهمتنا في ضمان إمكانية استخدام مساهماتنا وتوسيع نطاقها بطرق تعود بالفائدة على الجميع.
تطور تقنية الكشف عن الأجسام
شهد مجال الكشف عن الأجسام تطوراً كبيراً على مر السنين، بدءاً من تقنيات الرؤية الحاسوبية التقليدية وصولاً إلى نماذج التعلم العميق المتقدمة. وقد احتلت YOLO نماذجYOLO الصدارة في هذا التطور، حيث دأبت على توسيع حدود الإمكانات في مجال الكشف عن الأجسام في الوقت الفعلي.
يعامل النهج الفريد YOLO عملية الكشف عن الأجسام باعتبارها مشكلة انحدارية واحدة، حيث تتنبأ بالمربعات المحيطة واحتمالات التصنيف مباشرةً من الصور الكاملة في عملية تقييم واحدة. وقد جعلت هذه الطريقة الثورية YOLO أسرع بكثير من أجهزة الكشف السابقة ذات المرحلتين، مع الحفاظ على دقة عالية.
مع كل إصدار جديد، YOLO تحسينات على البنية وتقنيات مبتكرة ساهمت في تعزيز الأداء وفقًا لمختلف المقاييس. وتواصل YOLO26 هذه التقاليد من خلال دمج أحدث التطورات في مجال أبحاث الرؤية الحاسوبية، حيث تتميز باستدلال شامل NMS ونشر محسّن على الأجهزة الطرفية لتطبيقات العالم الواقعي.
الأسئلة الشائعة
ما هو Ultralytics YOLO وكيف يعمل على تحسين عملية الكشف عن الأجسام؟
Ultralytics YOLO سلسلة YOLO You Only Look Once) المشهورة المخصصة لاكتشاف الكائنات وتقسيم الصور في الوقت الفعلي. يعتمد أحدث طراز، YOLO26، على الإصدارات السابقة من خلال تقديم استدلال شامل NMS ونشر محسّن على الحافة. YOLO مهام مختلفة للذكاء الاصطناعي البصري مثل الكشف والتجزئة وتقدير الوضع والتتبع والتصنيف. تضمن بنيته الفعالة سرعة ودقة ممتازتين، مما يجعله مناسبًا لتطبيقات متنوعة، بما في ذلك الأجهزة الطرفية وواجهات برمجة التطبيقات السحابية.
كيف يمكنني البدء في YOLO وإعداده؟
البدء في YOLO سريع وسهل. يمكنك تثبيت Ultralytics باستخدام pip والبدء في العمل خلال دقائق. وإليك أمر التثبيت الأساسي:
التثبيت باستخدام pip
pip install -U ultralytics
للحصول على دليل شامل خطوة بخطوة، تفضل بزيارة صفحة "البدء السريع" الخاصة بنا. سيساعدك هذا المورد في الحصول على إرشادات التثبيت والإعداد الأولي وتشغيل النموذج الأول الخاص بك.
كيف يمكنني تدريب YOLO مخصص على مجموعة البيانات الخاصة بي؟
يتضمن تدريب YOLO مخصص على مجموعة البيانات الخاصة بك بضع خطوات تفصيلية:
- قم بإعداد مجموعة البيانات المُشروحة الخاصة بك.
- قم بتكوين معلمات التدريب في ملف YAML.
- استخدم
yolo TASK trainأمر لبدء التدريب. (كلTASK(لهذا الأمر حجته الخاصة)
فيما يلي مثال على كود برمجي لمهمة الكشف عن الأجسام:
مثال على تدريب مهمة الكشف عن الأجسام
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
للحصول على شرح تفصيلي، يرجى الاطلاع على دليلنا الخاص بتدريب النماذج ، والذي يتضمن أمثلة ونصائح لتحسين عملية التدريب.
ما هي خيارات الترخيص المتاحة لبرنامج Ultralytics YOLO؟
Ultralytics خيارين لترخيص YOLO:
- AGPL-3.0 : هذه الرخصة مفتوحة المصدر مثالية للاستخدام التعليمي وغير التجاري، وتشجع على التعاون المفتوح.
- ترخيص المؤسسات: صُمم هذا الترخيص للتطبيقات التجارية، حيث يتيح دمج Ultralytics بسلاسة في المنتجات التجارية دون قيود AGPL-3.0 .
لمزيد من التفاصيل، يرجى زيارة صفحة الترخيص الخاصة بنا.
كيف يمكنYOLO Ultralytics لتتبع الأجسام في الوقت الفعلي؟
YOLO Ultralytics YOLO تتبعًا فعالاً وقابلاً للتخصيص لعدة أهداف. للاستفادة من إمكانيات التتبع، يمكنك استخدام yolo track الأمر، كما هو موضح أدناه:
مثال على تتبع الكائنات في مقطع فيديو
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
للحصول على دليل تفصيلي حول إعداد وتشغيل ميزة تتبع الكائنات، يرجى الاطلاع على وثائق "وضع التتبع " الخاصة بنا، والتي تشرح الإعدادات والتطبيقات العملية في سيناريوهات الوقت الفعلي.









