सामग्री पर जाएं

YOLOv7: ट्रेनेबल बैग-ऑफ-फ्रीबीज

YOLOv7 एक अत्याधुनिक रीयल-टाइम ऑब्जेक्ट डिटेक्टर है जो 5 FPS से 160 FPS तक की सीमा में गति और सटीकता दोनों में सभी ज्ञात ऑब्जेक्ट डिटेक्टरों को पार करता है। GPU V56.8 पर 30 FPS या उच्चतर के साथ सभी ज्ञात रीयल-टाइम ऑब्जेक्ट डिटेक्टरों में इसकी उच्चतम सटीकता (100% AP) है। इसके अलावा, YOLOv7 अन्य ऑब्जेक्ट डिटेक्टरों जैसे YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, और गति और सटीकता में कई अन्य। मॉडल को एमएस कोको डेटासेट पर किसी भी अन्य डेटासेट या पूर्व-प्रशिक्षित वजन का उपयोग किए बिना खरोंच से प्रशिक्षित किया जाता है। YOLOv7 के लिए स्रोत कोड GitHub पर उपलब्ध है।

SOTA ऑब्जेक्ट डिटेक्टरों के साथ YOLOv7 तुलना अत्याधुनिक वस्तु डिटेक्टरों की तुलना। तालिका 2 के परिणामों से हम जानते हैं कि प्रस्तावित विधि में व्यापक रूप से सर्वोत्तम गति-सटीकता व्यापार-बंद है। अगर हम YOLOv7-tiny-SiLU की तुलना YOLOv5-एन (आर 6.1), हमारी विधि एपी पर 127 एफपीएस तेज और 10.7% अधिक सटीक है। इसके अलावा, YOLOv7 में 161 fps की फ्रेम दर पर 51.4% AP है, जबकि समान AP वाले PPYOLOE-L में केवल 78 fps फ्रेम दर है। पैरामीटर उपयोग के संदर्भ में, YOLOv7 PPYOLOE-L से 41% कम है। यदि हम YOLOv7-X की तुलना 114 fps अनुमान गति से करते हैं YOLOv5-L (r6.1) 99 fps अनुमान गति के साथ, YOLOv7-X AP में 3.9% तक सुधार कर सकता है। यदि YOLOv7-X की तुलना YOLOv5-X (r6.1) समान पैमाने पर, YOLOv7-X की अनुमान गति 31 fps तेज है। इसके अलावा, मापदंडों और गणना की मात्रा के संदर्भ में, YOLOv7-X की तुलना में 22% पैरामीटर और 8% गणना को कम करता है YOLOv5-X (r6.1), लेकिन AP में 2.2% (मूल).

विहंगावलोकन

रियल-टाइम ऑब्जेक्ट डिटेक्शन कई कंप्यूटर विज़न सिस्टम में एक महत्वपूर्ण घटक है, जिसमें मल्टी-ऑब्जेक्ट ट्रैकिंग, स्वायत्त ड्राइविंग, रोबोटिक्स और मेडिकल इमेज एनालिसिस शामिल हैं। हाल के वर्षों में, रीयल-टाइम ऑब्जेक्ट डिटेक्शन डेवलपमेंट ने कुशल आर्किटेक्चर को डिजाइन करने और विभिन्न सीपीयू, जीपीयू और न्यूरल प्रोसेसिंग यूनिट (एनपीयू) की अनुमान गति में सुधार करने पर ध्यान केंद्रित किया है। YOLOv7 किनारे से क्लाउड तक मोबाइल GPU और GPU दोनों उपकरणों का समर्थन करता है।

आर्किटेक्चर ऑप्टिमाइज़ेशन पर ध्यान केंद्रित करने वाले पारंपरिक रीयल-टाइम ऑब्जेक्ट डिटेक्टरों के विपरीत, YOLOv7 प्रशिक्षण प्रक्रिया के अनुकूलन पर ध्यान केंद्रित करता है। इसमें मॉड्यूल और अनुकूलन विधियां शामिल हैं जो अनुमान लागत में वृद्धि किए बिना ऑब्जेक्ट डिटेक्शन की सटीकता में सुधार करने के लिए डिज़ाइन की गई हैं, एक अवधारणा जिसे "ट्रेनेबल बैग-ऑफ-फ्रीबीज" के रूप में जाना जाता है।

प्रमुख विशेषताऐं

YOLOv7 कई प्रमुख विशेषताओं का परिचय देता है:

  1. मॉडल पुन: पैरामीटरीकरण: YOLOv7 एक नियोजित पुन: पैरामीटर मॉडल का प्रस्ताव करता है, जो ढाल प्रसार पथ की अवधारणा के साथ विभिन्न नेटवर्क में परतों पर लागू एक रणनीति है।

  2. डायनेमिक लेबल असाइनमेंट: कई आउटपुट परतों वाले मॉडल का प्रशिक्षण एक नया मुद्दा प्रस्तुत करता है: "विभिन्न शाखाओं के आउटपुट के लिए गतिशील लक्ष्य कैसे निर्दिष्ट करें?" इस समस्या को हल करने के लिए, YOLOv7 एक नई लेबल असाइनमेंट विधि पेश करता है जिसे मोटे-टू-फाइन लीड गाइडेड लेबल असाइनमेंट कहा जाता है।

  3. विस्तारित और यौगिक स्केलिंग: YOLOv7 रीयल-टाइम ऑब्जेक्ट डिटेक्टर के लिए "विस्तार" और "यौगिक स्केलिंग" विधियों का प्रस्ताव करता है जो प्रभावी रूप से मापदंडों और गणना का उपयोग कर सकते हैं।

  4. दक्षता: YOLOv7 द्वारा प्रस्तावित विधि प्रभावी रूप से लगभग 40% मापदंडों और अत्याधुनिक रीयल-टाइम ऑब्जेक्ट डिटेक्टर की 50% गणना को कम कर सकती है, और इसमें तेज अनुमान गति और उच्च पहचान सटीकता है।

उपयोग के उदाहरण

लेखन के समय तक, Ultralytics वर्तमान में YOLOv7 मॉडल का समर्थन नहीं करता है। इसलिए, YOLOv7 का उपयोग करने में रुचि रखने वाले किसी भी उपयोगकर्ता को स्थापना और उपयोग निर्देशों के लिए सीधे YOLOv7 GitHub रिपॉजिटरी को संदर्भित करना होगा।

YOLOv7 का उपयोग करने के लिए आपके द्वारा उठाए जा सकने वाले विशिष्ट चरणों का संक्षिप्त विवरण यहां दिया गया है:

  1. YOLOv7 GitHub रिपॉजिटरी पर जाएं: https://github.com/WongKinYiu/yolov7

  2. स्थापना के लिए README फ़ाइल में दिए गए निर्देशों का पालन करें। इसमें आमतौर पर रिपॉजिटरी की क्लोनिंग करना, आवश्यक निर्भरताएं स्थापित करना और किसी भी आवश्यक पर्यावरण चर को स्थापित करना शामिल है।

  3. एक बार इंस्टॉलेशन पूरा हो जाने के बाद, आप रिपॉजिटरी में दिए गए उपयोग निर्देशों के अनुसार मॉडल को प्रशिक्षित और उपयोग कर सकते हैं। इसमें आमतौर पर आपका डेटासेट तैयार करना, मॉडल मापदंडों को कॉन्फ़िगर करना, मॉडल को प्रशिक्षित करना और फिर ऑब्जेक्ट डिटेक्शन करने के लिए प्रशिक्षित मॉडल का उपयोग करना शामिल होता है।

कृपया ध्यान दें कि आपके विशिष्ट उपयोग के मामले और YOLOv7 रिपॉजिटरी की वर्तमान स्थिति के आधार पर विशिष्ट चरण भिन्न हो सकते हैं। इसलिए, YOLOv7 GitHub रिपॉजिटरी में दिए गए निर्देशों को सीधे संदर्भित करने की दृढ़ता से अनुशंसा की जाती है।

इसके कारण होने वाली किसी भी असुविधा के लिए हमें खेद है और हम इस दस्तावेज़ को उपयोग के उदाहरणों के साथ अपडेट करने का प्रयास करेंगे Ultralytics एक बार YOLOv7 के लिए समर्थन लागू हो जाने के बाद।

प्रशंसा पत्र और पावती

हम YOLOv7 लेखकों को रीयल-टाइम ऑब्जेक्ट डिटेक्शन के क्षेत्र में उनके महत्वपूर्ण योगदान के लिए स्वीकार करना चाहते हैं:

@article{wang2022yolov7,
  title={{YOLOv7}: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

मूल YOLOv7 पेपर arXiv पर पाया जा सकता है। लेखकों ने अपना काम सार्वजनिक रूप से उपलब्ध कराया है, और कोडबेस को GitHub पर एक्सेस किया जा सकता है। हम क्षेत्र को आगे बढ़ाने और उनके काम को व्यापक समुदाय के लिए सुलभ बनाने में उनके प्रयासों की सराहना करते हैं।



2023-11-12 बनाया गया, अपडेट किया गया 2024-01-07
लेखक: ग्लेन-जोचर (5), सर्गिउवैक्समैन (1)

टिप्पणियाँ