تخطي إلى المحتوى

Ultralytics YOLO26

نظرة عامة

Ultralytics YOLO26 هو أحدث تطور في سلسلة YOLO لكاشفات الأجسام في الوقت الفعلي، وقد تم تصميمه من الألف إلى الياء من أجل الأجهزة الطرفية والأجهزة منخفضة الطاقة. يقدم تصميمًا مبسطًا يزيل التعقيد غير الضروري مع دمج الابتكارات المستهدفة لتقديم نشر أسرع وأخف وزنًا وأكثر سهولة.

مخططات مقارنة Ultralytics YOLO26

جرب Ultralytics

استكشف ونفذ نماذج YOLO26 مباشرة على Ultralytics .

تسترشد بنية YOLO26 بثلاثة مبادئ أساسية:

  • البساطة: YOLO26 هو نموذج أصلي شامل، ينتج تنبؤات مباشرة دون الحاجة إلى منع التداخل الأقصى (NMS). من خلال التخلص من خطوة المعالجة اللاحقة هذه، يصبح الاستدلال أسرع وأخف وأسهل في النشر في الأنظمة الواقعية. تم ريادة هذا النهج прорыв لأول مرة في YOLOv10 بواسطة Ao Wang في جامعة Tsinghua وتم تطويره بشكل أكبر في YOLO26.
  • كفاءة النشر: يقلل التصميم الشامل من مرحلة كاملة من خط الأنابيب، مما يبسط التكامل بشكل كبير، ويقلل زمن الوصول، ويجعل النشر أكثر قوة عبر البيئات المتنوعة.
  • ابتكار التدريب: يقدم YOLO26 مُحسِّن MuSGD، وهو مزيج من SGD و Muon — مُستوحى من اختراقات Kimi K2 من Moonshot AI في تدريب LLM. يجلب هذا المحسن استقرارًا مُحسَّنًا وتقاربًا أسرع، وينقل تحسينات التحسين من النماذج اللغوية إلى رؤية الكمبيوتر.
  • تحسينات خاصة بالمهام: يقدم YOLO26 تحسينات مستهدفة للمهام المتخصصة، بما في ذلك فقدان التجزئة الدلالية ووحدات البروتو متعددة المقاييس لـ Segmentation، وتقدير الاحتمالية اللوغاريتمية المتبقية (RLE) لتقدير Pose عالي الدقة، وفك تشفير مُحسّن مع فقدان الزاوية لحل مشكلات الحدود في OBB.

تجتمع هذه الابتكارات لتقديم عائلة نماذج تحقق دقة أعلى على الكائنات الصغيرة، وتوفر نشرًا سلسًا، وتعمل بسرعة أكبر بنسبة تصل إلى 43٪ على وحدات المعالجة المركزية (CPUs) - مما يجعل YOLO26 أحد نماذج YOLO الأكثر عملية وقابلية للنشر حتى الآن للبيئات ذات الموارد المحدودة.

الميزات الرئيسية

  • إزالة DFL
    في حين أن وحدة Distribution Focal Loss (DFL) فعالة، إلا أنها غالبًا ما تعقد عملية التصدير وتحد من توافق الأجهزة. يزيل YOLO26 وحدة DFL تمامًا، مما يبسط الاستدلال ويوسع الدعم لـ الأجهزة الطرفية ومنخفضة الطاقة.

  • الاستدلال الشامل الخالي من NMS
    على عكس الكاشفات التقليدية التي تعتمد على NMS كخطوة معالجة لاحقة منفصلة، فإن YOLO26 شامل أصليًا. يتم إنشاء التنبؤات مباشرةً، مما يقلل من زمن الوصول ويجعل التكامل في أنظمة الإنتاج أسرع وأخف وزنًا وأكثر موثوقية.

  • ProgLoss + STAL
    تحسين وظائف الخسارة يزيد من دقة الـ detect، مع تحسينات ملحوظة في التعرف على الأجسام الصغيرة، وهو مطلب حاسم لتطبيقات إنترنت الأشياء والروبوتات والتصوير الجوي وغيرها من التطبيقات الطرفية.

  • محسن MuSGD
    مُحسِّن هجين جديد يجمع بين SGD و Muon. مُستوحى من Kimi K2 من Moonshot AI، يُدخل MuSGD طرق تحسين متقدمة من تدريب LLM في رؤية الكمبيوتر، مما يُمكّن تدريبًا أكثر استقرارًا وتقاربًا أسرع.

  • استدلال أسرع لوحدة المعالجة المركزية CPU بنسبة تصل إلى 43٪
    تم تحسين YOLO26 خصيصًا للحوسبة الطرفية، ويوفر استدلالًا أسرع لوحدة المعالجة المركزية CPU بشكل ملحوظ، مما يضمن أداءً في الوقت الفعلي على الأجهزة التي لا تحتوي على وحدات معالجة الرسوميات GPUs.

  • تحسينات تجزئة الكائنات
    يقدم فقدان التجزئة الدلالية لتحسين تقارب النموذج ووحدة بروتو مطورة تستفيد من المعلومات متعددة المقاييس لجودة قناع فائقة.

  • تقدير الوضعية الدقيق
    يدمج تقدير الاحتمالية اللوغاريتمية المتبقية (RLE) لتحديد مواقع النقاط الرئيسية بدقة أكبر ويحسن عملية فك التشفير لزيادة سرعة الاستدلال.

  • فك تشفير OBB المحسن
    يقدم خسارة زاوية متخصصة لتحسين دقة detect الكائنات مربعة الشكل ويحسن فك تشفير OBB لحل مشكلات عدم استمرارية الحدود.

رسوم بيانية للمقارنة الشاملة لـ Ultralytics YOLO26


المهام والأوضاع المدعومة

يعتمد YOLO26 على مجموعة النماذج المتنوعة التي أرستها إصدارات Ultralytics YOLO السابقة، مقدمًا دعمًا معززًا عبر مهام رؤية الكمبيوتر المختلفة:

النموذجأسماء الملفاتالمهمةالاستدلالالتحققالتدريبتصدير
YOLO26yolo26n.pt yolo26s.pt yolo26m.pt yolo26l.pt yolo26x.ptاكتشاف
YOLO26-segyolo26n-seg.pt yolo26s-seg.pt yolo26m-seg.pt yolo26l-seg.pt yolo26x-seg.ptتجزئة المثيل
YOLO26-poseyolo26n-pose.pt yolo26s-pose.pt yolo26m-pose.pt yolo26l-pose.pt yolo26x-pose.ptالوضع/النقاط الرئيسية
YOLO26-obbyolo26n-obb.pt yolo26s-obb.pt yolo26m-obb.pt yolo26l-obb.pt yolo26x-obb.ptالكشف الموجه
YOLO26-clsyolo26n-cls.pt yolo26s-cls.pt yolo26m-cls.pt yolo26l-cls.pt yolo26x-cls.ptالتصنيف

يضمن هذا الإطار الموحد أن يكون YOLO26 قابلاً للتطبيق عبر الكشف في الوقت الفعلي، و segmentation، و classification، و pose estimation، و oriented object detection — كل ذلك مع دعم التدريب والتحقق والاستدلال والتصدير.


مقاييس الأداء

الأداء

راجع وثائق الكشف لأمثلة الاستخدام مع هذه النماذج المدربة على COCO، والتي تتضمن 80 فئة مدربة مسبقًا.

النموذجالحجم
(بالبكسل)
mAPval
50-95
mAPval
50-95(e2e)
السرعة
وحدة المعالجة المركزية CPU ONNX
(بالمللي ثانية)
السرعة
T4 TensorRT10
(بالمللي ثانية)
المعلمات
(M)
FLOPs
(B)
YOLO26n64040.940.138.9 ± 0.71.7 ± 0.02.45.4
YOLO26s64048.647.887.2 ± 0.92.5 ± 0.09.520.7
YOLO26m64053.152.5220.0 ± 1.44.7 ± 0.120.468.2
YOLO26l64055.054.4286.2 ± 2.06.2 ± 0.224.886.4
YOLO26x64057.556.9525.8 ± 4.011.8 ± 0.255.7193.9

راجع وثائق التجزئة لأمثلة الاستخدام مع هذه النماذج المدربة على COCO، والتي تتضمن 80 فئة مدربة مسبقًا.

النموذجالحجم
(بالبكسل)
mAPbox
50-95(e2e)
mAPmask
50-95(e2e)
السرعة
وحدة المعالجة المركزية CPU ONNX
(بالمللي ثانية)
السرعة
T4 TensorRT10
(بالمللي ثانية)
المعلمات
(M)
FLOPs
(B)
YOLO26n-seg64039.633.953.3 ± 0.52.1 ± 0.02.79.1
YOLO26s-seg64047.340.0118.4 ± 0.93.3 ± 0.010.434.2
YOLO26m-seg64052.544.1328.2 ± 2.46.7 ± 0.123.6121.5
YOLO26l-seg64054.445.5387.0 ± 3.78.0 ± 0.128.0139.8
YOLO26x-seg64056.547.0787.0 ± 6.816.4 ± 0.162.8313.5

راجع وثائق التصنيف لأمثلة الاستخدام مع هذه النماذج المدربة على ImageNet، والتي تتضمن 1000 فئة مدربة مسبقًا.

النموذجالحجم
(بالبكسل)
acc
top1
acc
top5
السرعة
وحدة المعالجة المركزية CPU ONNX
(بالمللي ثانية)
السرعة
T4 TensorRT10
(بالمللي ثانية)
المعلمات
(M)
FLOPs
(B) عند 224
YOLO26n-cls22471.490.15.0 ± 0.31.1 ± 0.02.80.5
YOLO26s-cls22476.092.97.9 ± 0.21.3 ± 0.06.71.6
YOLO26m-cls22478.194.217.2 ± 0.42.0 ± 0.011.64.9
YOLO26l-cls22479.094.623.2 ± 0.32.8 ± 0.014.16.2
YOLO26x-cls22479.995.041.4 ± 0.93.8 ± 0.029.613.6

راجع وثائق تقدير الوضعيات لأمثلة الاستخدام مع هذه النماذج المدربة على COCO، والتي تتضمن فئة واحدة مدربة مسبقًا، وهي 'شخص'.

النموذجالحجم
(بالبكسل)
mAPpose
50-95(e2e)
mAPpose
50(e2e)
السرعة
وحدة المعالجة المركزية CPU ONNX
(بالمللي ثانية)
السرعة
T4 TensorRT10
(بالمللي ثانية)
المعلمات
(M)
FLOPs
(B)
YOLO26n-pose64057.283.340.3 ± 0.51.8 ± 0.02.97.5
YOLO26s-pose64063.086.685.3 ± 0.92.7 ± 0.010.423.9
YOLO26m-pose64068.889.6218.0 ± 1.55.0 ± 0.121.573.1
YOLO26l-pose64070.490.5275.4 ± 2.46.5 ± 0.125.991.3
YOLO26x-pose64071.691.6565.4 ± 3.012.2 ± 0.257.6201.7

راجع وثائق الكشف الموجه لأمثلة الاستخدام مع هذه النماذج المدربة على DOTAv1، والتي تتضمن 15 فئة مدربة مسبقًا.

النموذجالحجم
(بالبكسل)
mAPtest
50-95(e2e)
mAPtest
50(e2e)
السرعة
وحدة المعالجة المركزية CPU ONNX
(بالمللي ثانية)
السرعة
T4 TensorRT10
(بالمللي ثانية)
المعلمات
(M)
FLOPs
(B)
YOLO26n-obb102452.478.997.7 ± 0.92.8 ± 0.02.514.0
YOLO26s-obb102454.880.9218.0 ± 1.44.9 ± 0.19.855.1
YOLO26m-obb102455.381.0579.2 ± 3.810.2 ± 0.321.2183.3
YOLO26l-obb102456.281.6735.6 ± 3.113.0 ± 0.225.6230.0
YOLO26x-obb102456.781.71485.7 ± 11.530.5 ± 0.957.6516.5

أمثلة الاستخدام

يقدم هذا القسم أمثلة بسيطة لتدريب YOLO26 والاستدلال. للاطلاع على الوثائق الكاملة حول هذه الأنماط وغيرها، راجع صفحات وثائق Predict وTrain وVal وExport.

لاحظ أن المثال أدناه هو لنماذج YOLO26 Detect لـ object detection. للمهام المدعومة الإضافية، راجع وثائق Segment وClassify وOBB وPose.

مثال

PyTorch مدربة مسبقًا *.pt بالإضافة إلى نماذج التهيئة *.yaml يمكن تمرير الملفات إلى YOLO() class لإنشاء مثيل نموذج في Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

تتوفر أوامر CLI لتشغيل النماذج مباشرة:

# Load a COCO-pretrained YOLO26n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo26n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO26n model and run inference on the 'bus.jpg' image
yolo predict model=yolo26n.pt source=path/to/bus.jpg

بنية ثنائية الرأس

يتميز YOLO26 بهيكل ثنائي الرأس يوفر المرونة لمختلف سيناريوهات النشر:

  • رأس واحد لواحد (افتراضي): ينتج تنبؤات شاملة بدون NMS ويقوم بإخراج (N, 300, 6) بحد أقصى 300 عملية كشف لكل صورة. تم تحسين هذا الرأس للاستدلال السريع والنشر المبسط.
  • رأس واحد إلى عدة: يولد YOLO التقليدية التي تتطلب NMS ويخرج (N, nc + 4, 8400) حيث nc هو عدد الفئات. عادةً ما يحقق هذا الرأس دقة أعلى قليلاً على حساب معالجة إضافية.

يمكنك التبديل بين الرؤوس أثناء التصدير أو التنبؤ أو التحقق:

from ultralytics import YOLO

model = YOLO("yolo26n.pt")

# Use one-to-one head (default, no NMS required)
results = model.predict("image.jpg")  # inference
metrics = model.val(data="coco.yaml")  # validation
model.export(format="onnx")  # export

# Use one-to-many head (requires NMS)
results = model.predict("image.jpg", end2end=False)  # inference
metrics = model.val(data="coco.yaml", end2end=False)  # validation
model.export(format="onnx", end2end=False)  # export
# Use one-to-one head (default, no NMS required)
yolo predict model=yolo26n.pt source=image.jpg
yolo val model=yolo26n.pt data=coco.yaml
yolo export model=yolo26n.pt format=onnx

# Use one-to-many head (requires NMS)
yolo predict model=yolo26n.pt source=image.jpg end2end=False
yolo val model=yolo26n.pt data=coco.yaml end2end=False
yolo export model=yolo26n.pt format=onnx end2end=False

يعتمد الاختيار على متطلبات النشر لديك: استخدم الرأس الفردي للحصول على أقصى سرعة وبساطة، أو الرأس المتعدد عندما تكون الدقة هي الأولوية القصوى.

YOLOE-26: تجزئة الكائنات ذات المفردات المفتوحة

يدمج YOLOE-26 بنية YOLO26 عالية الأداء مع قدرات المفردات المفتوحة لسلسلة YOLOE. إنه يتيح الكشف والتجزئة في الوقت الفعلي لأي فئة كائن باستخدام المطالبات النصية، أو المطالبات المرئية، أو وضع خالٍ من المطالبات للاستدلال بدون تدريب مسبق، مما يزيل بشكل فعال قيود التدريب على فئات ثابتة.

من خلال الاستفادة من تصميم YOLO26 الشامل والخالي من NMS، يقدم YOLOE-26 استدلالًا سريعًا للعالم المفتوح. وهذا يجعله حلاً قويًا لتطبيقات الحافة في البيئات الديناميكية حيث تمثل الكائنات محل الاهتمام مفردات واسعة ومتطورة.

الأداء

راجع وثائق YOLOE لأمثلة الاستخدام مع هذه النماذج المدربة على مجموعات بيانات Objects365v1 وGQA وFlickr30k.

النموذجالحجم
(بالبكسل)
نوع المطالبةmAPminival
50-95(e2e)
mAPminival
50-95
mAPrmAPcmAPfالمعلمات
(M)
FLOPs
(B)
YOLOE-26n-seg640نصي/مرئي23.7 / 20.924.7 / 21.920.5 / 17.624.1 / 22.326.1 / 22.44.86.0
YOLOE-26s-seg640نصي/مرئي29.9 / 27.130.8 / 28.623.9 / 25.129.6 / 27.833.0 / 29.913.121.7
YOLOE-26m-seg640نصي/مرئي35.4 / 31.335.4 / 33.931.1 / 33.434.7 / 34.036.9 / 33.827.970.1
YOLOE-26l-seg640نصي/مرئي36.8 / 33.737.8 / 36.335.1 / 37.637.6 / 36.238.5 / 36.132.388.3
YOLOE-26x-seg640نصي/مرئي39.5 / 36.240.6 / 38.537.4 / 35.340.9 / 38.841.0 / 38.869.9196.7

راجع وثائق YOLOE لأمثلة الاستخدام مع هذه النماذج المدربة على مجموعات بيانات Objects365v1 وGQA وFlickr30k.

النموذجالحجم
(بالبكسل)
mAPminival
50-95(e2e)
mAPminival
50(e2e)
المعلمات
(M)
FLOPs
(B)
YOLOE-26n-seg-pf64016.622.76.515.8
YOLOE-26s-seg-pf64021.428.616.235.5
YOLOE-26m-seg-pf64025.733.636.2122.1
YOLOE-26l-seg-pf64027.235.440.6140.4
YOLOE-26x-seg-pf64029.938.786.3314.4

مثال على الاستخدام

يدعم YOLOE-26 كلًا من التوجيه النصي والمرئي. يُعد استخدام الموجهات أمرًا مباشرًا—فقط قم بتمريرها عبر predict الطريقة كما هو موضح أدناه:

مثال

تتيح لك الموجهات النصية تحديد الفئات التي ترغب في detectها من خلال الأوصاف النصية. يوضح الكود التالي كيف يمكنك استخدام YOLOE-26 لـ detect الأشخاص والحافلات في صورة:

from ultralytics import YOLO

# Initialize model
model = YOLO("yoloe-26l-seg.pt")  # or select yoloe-26s/m-seg.pt for different sizes

# Set text prompt to detect person and bus. You only need to do this once after you load the model.
names = ["person", "bus"]
model.set_classes(names, model.get_text_pe(names))

# Run detection on the given image
results = model.predict("path/to/image.jpg")

# Show results
results[0].show()

تتيح لك المطالبات المرئية توجيه النموذج عن طريق عرض أمثلة مرئية للفئات المستهدفة، بدلاً من وصفها بالنص.

import numpy as np

from ultralytics import YOLO
from ultralytics.models.yolo.yoloe import YOLOEVPSegPredictor

# Initialize model
model = YOLO("yoloe-26l-seg.pt")

# Define visual prompts using bounding boxes and their corresponding class IDs.
# Each box highlights an example of the object you want the model to detect.
visual_prompts = dict(
    bboxes=np.array(
        [
            [221.52, 405.8, 344.98, 857.54],  # Box enclosing person
            [120, 425, 160, 445],  # Box enclosing glasses
        ],
    ),
    cls=np.array(
        [
            0,  # ID to be assigned for person
            1,  # ID to be assigned for glasses
        ]
    ),
)

# Run inference on an image, using the provided visual prompts as guidance
results = model.predict(
    "ultralytics/assets/bus.jpg",
    visual_prompts=visual_prompts,
    predictor=YOLOEVPSegPredictor,
)

# Show results
results[0].show()

يتضمن YOLOE-26 إصدارات خالية من الموجهات تأتي مع مفردات مدمجة. لا تتطلب هذه النماذج أي موجهات وتعمل مثل نماذج YOLO التقليدية. بدلاً من الاعتماد على التسميات المقدمة من المستخدم أو الأمثلة المرئية، فإنها detect الكائنات من قائمة محددة مسبقًا تضم 4,585 فئة بناءً على مجموعة العلامات المستخدمة بواسطة Recognize Anything Model Plus (RAM++).

from ultralytics import YOLO

# Initialize model
model = YOLO("yoloe-26l-seg-pf.pt")

# Run prediction. No prompts required.
results = model.predict("path/to/image.jpg")

# Show results
results[0].show()

للاطلاع المتعمق على تقنيات التوجيه، والتدريب من الصفر، وأمثلة الاستخدام الكاملة، قم بزيارة وثائق YOLOE.

الاقتباسات والإقرارات

منشور Ultralytics YOLO26

لم تنشر Ultralytics ورقة بحثية رسمية لـ YOLO26 نظرًا للطبيعة سريعة التطور للنماذج. بدلاً من ذلك، نركز على تقديم نماذج متطورة وتسهيل استخدامها. للحصول على آخر التحديثات حول ميزات وهياكل واستخدام YOLO، تفضل بزيارة مستودع GitHub الخاص بنا و الوثائق.

إذا كنت تستخدم YOLO26 أو برامج Ultralytics أخرى في عملك، فيرجى الاستشهاد بها على النحو التالي:

@software{yolo26_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO26},
  version = {26.0.0},
  year = {2026},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

DOI معلق. يتوفر YOLO26 بموجب تراخيص AGPL-3.0 و Enterprise.


الأسئلة الشائعة

ما هي التحسينات الرئيسية في YOLO26 مقارنة بـ YOLO11؟

  • إزالة DFL: يبسط التصدير ويوسع توافق الحافة
  • الاستدلال الشامل الخالي من NMS: يزيل NMS لنشر أسرع وأبسط
  • ProgLoss + STAL: يعزز الدقة، خاصة على الأجسام الصغيرة
  • محسن MuSGD: يجمع بين SGD و Muon (مستوحى من Kimi K2 من Moonshot) لتدريب أكثر استقرارًا وكفاءة
  • استدلال أسرع لوحدة المعالجة المركزية CPU بنسبة تصل إلى 43٪: مكاسب كبيرة في الأداء للأجهزة التي تعمل بوحدة المعالجة المركزية CPU فقط

ما المهام التي يدعمها YOLO26؟

YOLO26 هي عائلة نماذج موحدة، توفر دعمًا شاملاً لمهام رؤية الكمبيوتر المتعددة:

يدعم كل متغير حجم (n, s, m, l, x) جميع المهام، بالإضافة إلى إصدارات المفردات المفتوحة عبر YOLOE-26.

لماذا تم تحسين YOLO26 للنشر على الحافة؟

يوفر YOLO26 أداءً متطورًا على الحافة من خلال:

  • استدلال أسرع لوحدة المعالجة المركزية CPU بنسبة تصل إلى 43٪
  • تقليل حجم النموذج والبصمة الذاكرة
  • تبسيط الهيكلة لتحقيق التوافق (بدون DFL، بدون NMS)
  • تنسيقات تصدير مرنة بما في ذلك TensorRT و ONNX و CoreML و TFLite و OpenVINO

كيف أبدأ باستخدام YOLO26؟

تم إصدار نماذج YOLO26 في 14 يناير 2026، وهي متاحة للتنزيل. قم بتثبيت أو تحديث ultralytics الحزمة وقم بتحميل نموذج:

from ultralytics import YOLO

# Load a pretrained YOLO26 nano model
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("image.jpg")

راجع قسم أمثلة الاستخدام للحصول على تعليمات التدريب والتحقق والتصدير.



📅 تم الإنشاء قبل 3 أشهر ✏️ تم التحديث قبل 0 أيام
glenn-jocherY-T-GLaughing-qraimbekovmfcakyonlmycrosspderrenger

تعليقات