कन्वोलुशनल न्यूरल नेटवर्क
सीएनएन[१][२]
कन्वोलुशनल न्यूरल नेटवर्क (सीएनएन) मशीन लर्निंग में एक एल्गोरिदम है जिसका उपयोग मुख्य रूप से छवि वर्गीकरण और ऑब्जेक्ट डिटेक्शन के उद्देश्य से भविष्य कहनेवाला विश्लेषण के रूप में किया जाता है।
सीएनएन के मानक उपयोग में यह एक इनपुट छवि में लेता है और इसे हमारे वर्गीकरण से संबंधित कुछ वस्तु के रूप में वर्गीकृत करता है।
प्रक्रिया:[३]
यह छवि प्रक्रिया कई कॉन्वोल्यूशनल परतों और फ़िल्टरिंग, पूलिंग और पूरी तरह से कनेक्टेड परतों के माध्यम से की जाती है।
कन्वोलुशनल परत सीएनएन मॉडल की पहली परत है, इस परत एक इनपुट छवि से सुविधाओं को अर्क, सीएनएन के चरणों के अधिकांश वहां कुछ गणितीय आपरेशन है जो इस तरह के छवि मैट्रिक्स और फिल्टर के रूप में दो इनपुट ले जाएगा, जबकि
पूलिंग[४]
इनपुट छवियों के बहुत बड़े होने पर पैरामीटर की संख्या को कम करने के लिए पूलिंग लेयर का उपयोग किया जाता है। लेकिन पूलिन अभी भी महत्वपूर्ण जानकारी है जो भविष्य कहनेवाला विश्लेषण में आवश्यक हो जाएगा बनाए रखने जाएगा ।
पूलिंग 3 प्रकार की है:
- मैक्स पूलिंग
- औसत पूलिंग
- योग पूलिंग
हम अंत में एक वेक्टर में हमारे प्रसंस्कृत मैट्रिक्स समतल और यह एक पूरी तरह से जुड़े परत में पारित ।
प्रगति[५]
स्ट्राइड इनपुट मैट्रिक्स पर पिक्सल शिफ्ट करने की संख्या है। जब डग 1 होता है तो हम फ़िल्टर को एक समय में 1 पिक्सेल में ले जाते हैं। जब प्रगति 2 होती है तो हम फ़िल्टर को एक समय में 2 पिक्सेल पर ले जाते हैं और इसी तरह। नीचे दिए गए आंकड़े से पता चलता है कि कन्वोलुशन 2 की प्रगति के साथ काम करेगा।
सारांश
- सीएनएन के कदम संक्षेप में नीचे सूचीबद्ध है:
- सबसे पहले हम एक जटिल परत में एक इनपुट छवि प्रदान करते हैं, हम मापदंडों का चयन करते हैं और फिर फ़िल्टर लागू करते हैं और यदि आवश्यक हो तो पैडिंग भी करते हैं।
- पूलिंग का उपयोग करने का मुख्य उद्देश्य आकार को कम करना है (आयामीता में)
- हमारे गठन वेक्टर चपटा है और फिर एफसी में पारित कर दिया ।
- अंत में हम कुछ सक्रियण समारोह के उपयोग के साथ वर्ग उत्पादन।
संदर्भ
- ↑ स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
- ↑ Kranzusch, Kara M. (2005-10-17). "Abort Determination with Non-Adaptive Neural Netwo..." 56th International Astronautical Congress of the International Astronautical Federation, the International Academy of Astronautics, and the International Institute of Space Law. Reston, Virigina: American Institute of Aeronautics and Astronautics. doi:10.2514/6.iac-05-e2.1.06.
- ↑ Iwai, Toshiya (2010-01). "Memory search model by chaotic neural netowork". Neuroscience Research. 68: e324. doi:10.1016/j.neures.2010.07.1437. ISSN 0168-0102.
{{cite journal}}
: Check date values in:|date=
(help) - ↑ HSSAYNI, El Houssaine (2020-03-31). "Regularization of Deep Neural Networks with Average Pooling Dropout". Journal of Advanced Research in Dynamical and Control Systems. 12 (SP4): 1720–1726. doi:10.5373/jardcs/v12sp4/20201654. ISSN 1943-023X.
- ↑ Yang, Zerui; Xu, Yuhui; Dai, Wenrui; Xiong, Hongkai (2019-11-18). "Dynamic-stride-net: deep convolutional neural network with dynamic stride". Optoelectronic Imaging and Multimedia Technology VI. SPIE. doi:10.1117/12.2537799. ISBN 978-1-5106-3091-8.