अधिगम विज्ञान की प्रगति के लिए कार्यक्रम: कम्प्यूटेशनल लर्निंग, मशीन लर्निंग और न्यूरोसाइंस
सूचना विज्ञान के दर्शन पर एक पत्र, जिसमें इसे अधिगम विज्ञान में परिवर्तित करने की दिशा में: गणित का दर्शन, कंप्यूटर विज्ञान का दर्शन, कम्प्यूटेशनल लर्निंग का दर्शन और न्यूरोसाइंस का दर्शन
गणित का अधिगम दर्शन
तुम सोचती हो कि गणित का दर्शन रोचक नहीं है, लेकिन वास्तव में यह सबसे रोचक विषय है। गणित की नींव के रूप में अधिगम को लेना चाहिए था। प्रमाणों का लेखन नहीं - बल्कि प्रमाणों का अधिगम, क्योंकि गणितीय निर्माण अपने गहरे स्वरूप में तार्किक निर्माण नहीं है (यह केवल इसका भाषाई सतही रूप है), बल्कि अधिगम-आधारित निर्माण है। वास्तव में न्यूरोसाइंस की मुख्य समस्या मस्तिष्क को एक एजेंट के रूप में देखना है, बजाय यह समझने के कि मस्तिष्क में प्रतिस्पर्धा होती है - विचारों के बीच, मॉड्यूल्स के बीच (जैसे ध्यान और निर्णय के लिए), विभिन्न स्मृतियों के बीच, न्यूरॉन्स के बीच, और इस वाक्य के विभिन्न विकल्पों के बीच (और यह प्रतिस्पर्धा आर्थिक या राजनीतिक प्रतिस्पर्धा के समानांतर है, जो सीखने वाली प्रणालियां बनाती है, जैसे लोकतंत्र या पूंजीवाद या चीनी मेरिटोक्रेसी, और यह उनकी विजय का मूल है)। इसी तरह गणित की मुख्य समस्या यह है कि यह अपने भीतर अपने बहु-एजेंट्स को नहीं समझती, गणितज्ञों को, जो इसे सीखते हैं, और सामान्यतः गणित के नीचे के अधिगम को नहीं समझती (जैसे पहले यह गणित के नीचे के तर्क को नहीं समझती थी, और फिर फ्रेगे ने तर्क को गणित की नींव बना दिया, वैसे ही तर्क के नीचे - जो इसे संचालित करता है, और जो आगे चलकर गणित की नींव बनेगा - वह है गणितीय अधिगम)। इतना ही नहीं - अधिगम को गणित में मूल अवधारणाओं को परिभाषित करने का उपकरण होना चाहिए, जिन पर सब कुछ निर्मित है: सीमा, समूह, टोपोलॉजी, स्पेस, प्रमाण, सेट, अभाज्य संख्याएं, संभावना, फलन, अनुक्रम, आदि। और इस तरह गणित का अधिगम-आधारित पुनर्निर्माण करना होगा, एक नया स्वयंसिद्ध-आधार और व्याख्या (जैसे क्वांटम सिद्धांत की संभावित अधिगम-आधारित व्याख्या, उसकी अन्य व्याख्याओं के बीच)। गणित की - और विशेष रूप से बीजगणित की - संयोजन और निर्माण की विशेषता अधिगम से उत्पन्न होती है, और इस पर आधारित होनी चाहिए। मान लीजिए कि आपने पहले ही सीख लिया है कि कैसे a, b को एक काली पेटी के रूप में करना है। इसका क्या मतलब है, कि आपके पास यह फलन है? प्रमाण जानने का क्या अर्थ है? इसकी मदद से c तक कैसे पहुंचते हैं? एक समय आएगा जब आप केवल इतना नहीं कह सकेंगे कि मेरे पास एक फलन है, लेकिन ब्राउवर के अंतर्ज्ञानवाद या औपचारिकतावाद के स्वयंसिद्ध-गणनात्मक निर्माण के विपरीत, जो निर्माण आपको प्रदान करना होगा वह अधिगम-आधारित है: आपने फलन कैसे सीखा। और भले ही फलन पहले से ही आपके पास मौजूद हो (मान लीजिए आपके मस्तिष्क की न्यूरोलॉजी में), एक काली पेटी के रूप में, तो भी इसे जानने का अर्थ इसका उपयोग करना नहीं है, यानी इनपुट के लिए इसका उत्तर देने की क्षमता नहीं है, बल्कि जानने का अर्थ है इसके माध्यम से सीखने की क्षमता, अर्थात इस काली पेटी से (जिसे आप नहीं समझते) उपयुक्त अधिगम के विस्तार बनाना। जैसे प्रमाण को जानने का अर्थ इसे उद्धृत करने और मान्यताओं से निष्कर्षों तक पहुंचने की क्षमता नहीं है (क्यूईडी), बल्कि इससे अतिरिक्त प्रमाण बनाने की क्षमता है, यानी इसके माध्यम से सीखते रहना। और प्रमाण को समझना कुछ ऐसा नहीं है जो आप इसके भीतर समझते हैं (जैसे इसके क्रम के भीतर), बल्कि यह समझना है कि इससे अतिरिक्त प्रमाण कैसे बनाएं (न केवल मौजूदा प्रणाली में इसका "उपयोग" करना, जैसा विटगेंस्टीन के पास, बल्कि इससे प्रणाली का विस्तार बनाना और प्रणाली को विकसित करना, जैसे कवि द्वारा भाषा का उपयोग, न कि वक्ता द्वारा, यानी जैसे प्रोग्रामर द्वारा कंप्यूटर का उपयोग, न कि "उपयोगकर्ता" द्वारा)। और यहां हम न्यूरल नेटवर्क और आनुवंशिक एल्गोरिथम के बीच समानता पर ध्यान देंगे। न्यूरॉन्स में निर्माण मुख्य रूप से संख्याओं का जोड़ और संयोजन है (यानी रैखिक संयोजन - सबसे सरल संयोजन - फलनों का, ऊपर न्यूनतम आवश्यक अरैखिकता के साथ), जबकि विकास में निर्माण भागों का जोड़ और संयोजन है (वास्तव में, यह दो वाक्यों - दो जीनोम का भाषाई संयोजन है, जहां कुछ शब्द पहले से और कुछ दूसरे से हैं। और अंत में अभिसरण के बाद - वाक्य बहुत समान होते हैं और उनके बीच हल्के अंतर होते हैं, इसलिए वाक्य अभी भी अर्थपूर्ण है। "माली ने बाग में अनाज उगाया" का "माली ने बगीचे में गेहूं उगाया" के साथ संयोजन। लेकिन मूल रूप से आनुवंशिक एल्गोरिथम में निर्माण बस विनिमय में जोड़ना है। और उनका बेटा है "माली ने बगीचे में अनाज उगाया")। इसलिए दो निर्माण और संयोजन तंत्रों के बीच विशिष्ट अंतर से परे, यानी जोड़, जिनमें एक मात्रात्मक आकारों का जोड़ है और दूसरा पाठ-भाषाई जोड़ है, न्यूरॉन अधिगम और विकास के बीच गहरी समानता है: पीढ़ियां परतें हैं। मूल अधिगम घटक प्रत्येक चरण में बहुत अधिक हैं, और एक दूसरे के ऊपर गहरे तरीके से (यानी बहुत अधिक) जमा होते हैं, अधिगम बनाने के लिए। विकास स्वभाव से गहरा अधिगम है, और इस प्राकृतिक समानता से इनकार नहीं किया जा सकता। यानी हम देखते हैं कि प्रकृति में निर्माण अधिगम के लिए मूलभूत है - भले ही दुनिया में विभिन्न निर्माण तकनीकें हो सकती हैं (जोड़, गुणा, स्ट्रिंग कैटेनेशन, अन्य कोड खंड को फंक्शन के रूप में कॉल करना, आदि) - और यही बात तार्किक और गणितीय निर्माण में भी है। क्योंकि तर्क में भी निर्माण की कई परतें होती हैं जो संयोजन से बनती हैं (निर्माण में दो आयाम होते हैं, क्योंकि यह दो या अधिक पिछली चीजों को जोड़ता है - क्षैतिज आयाम - उनसे कुछ नया बनाने के लिए - ऊर्ध्वाधर आयाम। यानी निर्माण नीचे की ओर बहुलता से भी बनता है, और आपके बगल में विकल्पों की बहुलता से भी, जैसे दीवार में ईंटें)। और अगर हम गणित को फिर से अधिगम के ऊपर परिभाषित करने की परियोजना पर लौटें, तो हम देखेंगे कि यह योजना (गणित की नींव की अधिगम योजना, लैंगलैंड्स कार्यक्रम की तर्ज पर) न केवल स्वभाव से निर्माणात्मक बीजगणित के लिए उपयुक्त है, बल्कि विश्लेषण में भी। वास्तव में, बीजगणित में निर्माण मूलभूत है, और इसलिए इसमें मूल निर्माण प्रश्न अधिगम दृष्टिकोण से लाभान्वित होंगे। आखिर अभाज्य संख्याएं क्या हैं? संख्याओं के निर्माण की दो विधियों के बीच टकराव: एक जोड़ में - और दूसरी गुणा में। यह पहेली का स्रोत है (रीमान एक उदाहरण के रूप में), और इसका समाधान एक नई अवधारणा के माध्यम से होगा: उन्हें बनाना सीखना। अभाज्य संख्याओं को सीखना - यह रीमान परिकल्पना का राजमार्ग है। और इसी तरह समूह बनाना सीखा जा सकता है। या सेट सीखना (या ग्राफ, या खेल, या मैट्रिक्स)। और विश्लेषण में, सीमा का क्या अर्थ है? मापन के माध्यम से निकट आना - इसका अर्थ है जानना। और टोपोलॉजी सीमा का सामान्यीकरण है। सीमा एक अधिगम तंत्र है, और जब यह सफल होता है, जब सीखा जा सकता है (यानी जब जितना नजदीक जाते हैं वह आपको सिखाता है कि किस ओर जा रहे हैं), तो यह सतत है। और जब सीखा नहीं जा सकता - तब यह असतत है। और यह अधिगम तंत्र स्वयं सतत के टोपोलॉजी से उत्पन्न होता है। यानी, टोपोलॉजी में अधिगम एक अधिक सार सामान्यीकरण है और सीमा की परिभाषा का आधार नहीं है, बल्कि सीमा इसका एक विशेष उदाहरण है। जब हम अधिगम तंत्र को स्वयं देखते हैं (सतत का) और उससे परिभाषा शुरू करते हैं - यह टोपोलॉजी है (फिल्टर, या खुले/बंद सेट, या अन्य समकालीन प्रस्तावों की मदद से परिभाषा के विकल्प के रूप में)। और विश्लेषण में, हम विधि के विचार की मदद से डेरिवेटिव को परिभाषित कर सकते हैं, या विधि को डेरिवेटिव के विचार के सामान्यीकरण के रूप में। यह अधिगम का अधिगम है।
कंप्यूटर विज्ञान का अधिगम दर्शन
इसी तरह, क्षेत्र को अधिगम आधार पर बनाने की समान प्रक्रिया कंप्यूटर विज्ञान में भी की जा सकती है (और इस तरह अंततः कंप्यूटर विज्ञान के दर्शन के क्षेत्र को गंभीर रूप से स्थापित किया जा सकता है)। आखिर गणना क्या है: फलन इस तक कैसे पहुंचा? (अब आप बस परिभाषित नहीं कर सकते बल्कि यह रचनात्मक होना चाहिए - गणनीय)। तब, अधिगम क्या है: गणना इस तक कैसे पहुंची? (आपको बताना होगा कि आपने एल्गोरिथम कैसे बनाया, यानी आपने इसे कैसे सीखा, जैसे पहले आपको बताना पड़ता था कि आपने फलन कैसे बनाया। यह रचनात्मकता की रचनात्मकता है)। तब, अगर फलन पर वापस जाएं, तो क्या चाहिए: फलन की गणना करना सीखना। प्रमाण तो निर्माण है। और अधिगम यह है कि कैसे निर्माण करें। स्वयं निर्माण का निर्माण करना। इससे अगला बीजगणितीय चरण अधिगम में जोड़ और गुणा होगा, जो जोड़ और गुणा का सामान्यीकरण होगा, और इसलिए अधिगम की मदद से हम एल्गोरिथम के जोड़ और गुणा को परिभाषित कर सकेंगे। और इस तरह वे गुणा (लूप में कॉल, बहुपद मामले में) और जोड़ (एक एल्गोरिथम के बाद एक एल्गोरिथम का निष्पादन) का सामान्यीकरण होंगे, अधिगम निर्माण में। और रिकर्शन घात का सामान्यीकरण होगा। और शर्त एक प्रकार का जोड़ है। ट्यूरिंग की गणना की दुनिया में, अनंत और एसिम्प्टोटिक विश्लेषण थे, और संक्रियाएं - बीजगणित। और अब हम उस समस्या का सामना कर रहे हैं जहां हम अनंत को जोड़ना चाहते हैं, यानी सीमा की ओर सीखने वाली प्रणालियां, जो ऐतिहासिक रूप से अनंत के जोड़ की समस्या के बहुत समान है जो कैलकुलस की जड़ में थी। अधिगम के घटक हमेशा इष्टतम की ओर बढ़ते हैं, और यह सतत भाग है, अनुकूलन का। और दूसरी ओर वे एक दूसरे के साथ/ऊपर बीजगणितीय रूप से जुड़े हुए हैं, जो असतत भाग है, खोज और उत्परिवर्तन का, यानी गणना की दृष्टि से महंगा। अगर इसे सामान्य रूप से करने का कोई तरीका नहीं है - तो संयोजन हैं। यानी यह ब्रूट फोर्स खोज है। और इसलिए हमें समझना चाहिए कि गहराई में, घातीयता वास्तव में ब्रूट फोर्स और समस्या को समझने और हल करने में असमर्थता की अभिव्यक्ति है, बल्कि केवल इसे सूत्रबद्ध करने की। इसका अर्थ है: हल करना न जानना। यानी: गणित में हम जिन सभी मूल बीजगणितीय संक्रियाओं को जानते हैं, जैसे जोड़ और गुणा और घात, उनके नीचे कुछ गहरा है, और गणनात्मक, और यहां तक कि (नीचे) अधिगम-आधारित। और यह आज बाहरी रूप से बस रन टाइम फंक्शन के रूप में प्रकट होता है। घात वास्तव में सभी संभावनाओं के स्थान में खोज है। यह भाषा है और अधिगम नहीं। भाषा सभी संभव संयोजन है, और अधिगम संभावनाओं का अभिसरण है, और इसलिए एक विशिष्ट समाधान की अनुमति देता है। एक विशिष्ट वाक्य। दुनिया का कोई भी वाक्य कभी भी भाषा द्वारा नहीं लिखा गया - वे सभी अधिगम द्वारा लिखे जाते हैं।
एल्गोरिथम का दर्शन
क्या आपने फलन या एल्गोरिथम सीखा? ध्यान दें कि यह विश्लेषण में सीमा के समान है - जहां फलन है (जो सीमा है)। और एप्सिलॉन और डेल्टा के बजाय, हमारे पास शिक्षक और छात्र के बीच अंतःक्रिया है। छात्र सीमा की ओर बढ़ता है (जो उसका क्षितिज है), और शिक्षक सीमा में मापक की स्थिति में खड़ा है, उदाहरण के लिए पूछता है कि आप किसी विशेष बिंदु पर फलन के परिणाम के कितने निकट हैं। यानी शिक्षक का पक्ष, सफलता को मापने वाला पक्ष, जो आपके अभिसरण का निर्णय करता है, वह NP में मानदंड की तरह है। और NP में क्या समस्या है? कि यह विश्लेषण में सतत सीमा के ठीक विपरीत है, क्योंकि ऐसी समस्याओं में सफलता का आंशिक मापन लक्ष्य प्राप्त करने में बिल्कुल मदद नहीं करता, और अधिगम में सहायता नहीं करता, यानी आप छात्र के रूप में सफल नहीं हो सकते। रास्ते में कोई मार्गदर्शन नहीं है, जो लक्ष्य तक पहुंचने की अनुमति दे। अधिगम उन चीजों से कुछ ऐसा बनाने की प्रक्रिया है जो करना जानते हैं - जो करना नहीं जानते। और यह सब मूल्यांकन के मापदंड के सामने। और अगर मूल्यांकन एक आंतरिक मानदंड है, बाहरी नहीं, तो यह मार्ग है - जो विधि है। लेकिन अगर कोई आंतरिक मानदंड ही नहीं है बल्कि केवल बाहरी है? तब आप NP में हैं। जब आप एल्गोरिथम सीखते हैं, तो क्या इसे उदाहरण से या प्रदर्शन से सीखने के रूप में परिभाषित करना सही है, यानी क्या के रूप में या कैसे के रूप में सीखने के रूप में? क्या आप केवल विशेष मामले में सीखी जा रही फलन के इनपुट और आउटपुट मान प्राप्त करते हैं, या आप विशेष इनपुट-आउटपुट मामले में फलन का रचनात्मक निर्माण प्राप्त करते हैं? उत्तर दोनों होना चाहिए, क्योंकि अधिगम ठीक फलन का पिछली फलनों से बना विघटन है, जो स्वयं प्रदर्शन है, लेकिन प्रत्येक चरण में उनमें से किस संयोजन को करना है यह उदाहरण पर निर्भर करता है (क्या प्रमाण एक उदाहरण है या प्रदर्शन?)। तब, NP वे समस्याएं हैं जिन्हें जांचना आसान है - और सीखना कठिन (यानी जिनमें शिक्षण नहीं किया जा सकता - शिक्षक होना - उनके मामले में)। और ठीक इसी तरह अभाज्य संख्याओं की समस्या में भी, सवाल यह है कि आप उन्हें कितना नहीं सीख सकते, वे कितनी अप्रत्याशित हैं (संभावना, जिसे भी अधिगम की मदद से नए सिरे से परिभाषित किया जा सकता है)। यही रीमान परिकल्पना का सार है (और इसलिए अभाज्य संख्याओं के फैक्टराइजेशन की समस्या के साथ एक तरफा फलन के रूप में इसका गहरा संबंध होने की उम्मीद है)। अभाज्य संख्याओं में अधिगम क्या है? प्राकृतिक संख्याओं की श्रृंखला पर जिस अभाज्य संख्या तक आप पहुंचे हैं, जो आप पहले से जानते हैं वह है उससे पहले की सभी अभाज्य संख्याओं के गुणन से संख्याएं बनाना। यानी वह (अगली अभाज्य) कुछ ऐसा है जो आपने नहीं सीखा है और सीखने की जरूरत है, और गहरा सवाल यह है कि आपकी सीखने की क्षमता वास्तव में कितनी सीमित है, अगर अधिगम निर्माण पिछली संख्याओं के गुणन से संख्या का निर्माण है। यानी: गणित की दो सबसे महत्वपूर्ण परिकल्पनाओं में एक अधिगम सूत्रीकरण मौजूद है जो उनके सार को छूता है - और यह उनके समाधान का मार्ग होना चाहिए था, अगर हम भाषाई सोच में न फंस जाते, यानी निर्माण के एक बहुत ही आदिम और संयोजनात्मक प्रकार में (प्राकृतिक संख्याओं और एल्गोरिथम दोनों का)। दोनों में यह साबित करना होगा कि एक निश्चित घटना सीखने के लिए कठिन है - यानी यह पता लगाना कि क्या नहीं सीखा जा सकता। गणित के इतिहास में हमने ऐसी मूल परिकल्पनाओं को हल किया जिन्हें हम बिल्कुल नहीं जानते थे कि कैसे पहुंचें (अपरिमेय संख्याओं का अस्तित्व, वृत्त का वर्गीकरण, क्विंटिक समीकरण, गोडेल का प्रमेय, आदि) हमेशा एक नए निर्माण की मदद से, जो घटना को पकड़ने में सफल रहा - और उसके बाद यह साबित किया कि इसके माध्यम से क्या नहीं बनाया जा सकता। ध्यान दें कि ये सभी समस्याएं थीं कि क्या नहीं किया जा सकता (पाइथागोरस स्कूल में एक अपरिमेय संख्या का अस्तित्व प्राकृतिक संख्याओं के माध्यम से अनुपात के रूप में इसे बनाने की अक्षमता थी, हालांकि समस्या सकारात्मक रूप से तैयार की गई थी), क्योंकि गणित में गहरी समस्याएं हमेशा असंभवता की समस्याएं होती हैं। ठीक इसलिए क्योंकि गणित एक निर्माण है - यह एक टूटी हुई नाली के सामने खड़ा होने के लिए बाध्य है जब इसे दिखाना होता है कि क्या नहीं बनाया जा सकता (और कम क्या बनाया जा सकता है - क्योंकि उसे बस बनाया जा सकता है)। और इसलिए आज की दो प्रमुख असंभवता समस्याओं में आगे बढ़ने के लिए, NP और रीमान, हमें अधिगम की एक गणितीय परिभाषा और इससे उत्पन्न निर्माण को बनाना होगा - और फिर विरोधाभास के रास्ते से साबित करना होगा कि ऐसा निर्माण संभव नहीं है क्योंकि इसे सीखा नहीं जा सकता (दूसरे शब्दों में: अधिगम उस गणितीय संरचना को व्यक्त कर सकता है और करना चाहिए जिसे वह सीखता है, और उस पर सीमाएं लगाता है क्योंकि क्या नहीं सीखा जा सकता - जो गणितीय अधिगम सिद्धांत से निकलेगा - और इस तरह इसकी संभावनाओं की सीमाओं को साबित करता है)। और NP बनाम P की समस्या के बारे में, ध्यान दें कि सीखना, सामान्य अर्थ में, अनिवार्य रूप से कठिन है, अक्षम और गैर-बहुपद है। और वास्तव में शायद जो साबित करने के लिए पर्याप्त है वह यह है कि सीखना एक कठिन समस्या है, क्योंकि यह जांचना आसान है कि हमने सही सीखा है, उदाहरणों के अनुसार। यह स्वयं एक NP समस्या है। यानी यह दिखाना कि अगर एक कुशल सामान्य अधिगम एल्गोरिथम होता - तो विरोधाभास तक पहुंचना होगा (ऐसा विसंगति की ओर ले जाना है कि अगर अधिगम की समस्या को हल किया जा सकता है, तो सब कुछ आसानी से हल किया जा सकता है, क्योंकि अधिगम पहले समाधान एल्गोरिथम को सीख सकता है, और ऐसी स्थिति में अधिगम समस्या को खुद हल करना भी सीखा जा सकता है, और इस तरह जब तक कोई न्यूनतम अधिगम एल्गोरिथम तक नहीं पहुंचता, लेकिन वह भी सीखा जाता है। इसके अलावा, ऐसी स्थिति में, NP समस्या को हल करने वाले P में एल्गोरिथम के लिए एक न्यूनतम बहुपद घात है, और फिर यह दिखाना होगा कि अधिगम की रचनात्मक विशेषताओं के कारण, इसके नीचे का एल्गोरिथम भी, यानी जो नया इसकी मदद से बनाया गया है और जिसकी कम बहुपद घात है, NP समस्या को हल करता है। वैकल्पिक रूप से, समाधान की ईंटों के बीच सूचना को विभाजित करना, और विसंगति तक प्रेरण से नीचे जाना, इस विचार के सूत्रीकरण की मदद से कि NP समस्या का समाधान सभी सूचनाओं पर निर्भर करता है, और इसमें विभाजन और शासन नहीं है, कम से कम अधिगम निर्माण में। बहुपदता स्वयं इस तथ्य से उत्पन्न होती है कि अधिगम रचनात्मक है, और दो मूल निर्माण एल्गोरिथम का जोड़ना, और लूप में कॉल करना हैं, यानी जोड़ और गुणा, और इसलिए P में बहुपद, यानी दक्षता और समाधान की सरलता की परिभाषा का स्पष्टीकरण)। ध्यान दें कि गणित में मूल चीजें कैसे हमेशा एक असतत अनंत प्रक्रिया हैं: अभाज्य संख्याएं, सीमा, गणना, तर्क... और ऐसा ही अधिगम में भी होगा, और वास्तव में, अधिगम इस घटना का कारण है, क्योंकि यह उनके नीचे है। और किसी भी मामले में, इस साझा विशेषता से, उनसे निपटने की इसकी क्षमता, और एक नए गणितीय प्रतिमान की ओर आगे बढ़ने की क्षमता निकलती है, जो भाषा से परे है (जो वर्तमान गणितीय प्रतिमान है)। और फिर हम ध्यान देंगे कि NP समस्या वास्तव में कितनी अधिगम समस्या है (जिसे गलती से भाषा के माध्यम से अवधारणा दी गई, और इसलिए ऐसी बन गई जिसके लिए कोई भाषा उपयुक्त नहीं है, या इसके समाधान को पकड़ने की शुरुआत करने में भी सक्षम नहीं है), और फिर हम नहीं समझेंगे कि हमने क्यों नहीं समझा कि अधिगम के माध्यम से अवधारणा इसके प्राकृतिक समाधान की दिशा है। क्योंकि अधिगम दृष्टिकोण की मदद से, हम विकास के लिए NP की समानता भी देखते हैं, जहां अधिगम तंत्र है (संयोजन और उत्परिवर्तन) जो अस्तित्व और फिटनेस परीक्षक के खिलाफ संघर्ष करता है, जहां एक जीवित प्राणी को बनाना और उसमें नवीनता लाना बहुत कठिन है, और यह जांचना बहुत आसान है कि वह जीवित रहता है या नहीं। जीव विज्ञान हमेशा क्रूर प्रकृति के सामने कठिन अधिगम की स्थिति में रहता है, जिसके लिए इसके प्रयासों का न्याय करना आसान है। और यहां, अधिगम की ओर रास्ते पर, हम देखते हैं कि सौंदर्य मार्गदर्शन में एक भूमिका निभाता है, ताकि जीव विज्ञान शॉर्टकट के माध्यम से अनुमान लगा सके कि कौन अधिक फिट है और कौन कम। और इसी तरह गणित में भी। प्रमाण का एक कठिन मानदंड सौंदर्य के एक नरम मानदंड के साथ चलता है, जो गणितज्ञों को गणित करने और गणितीय अधिगम में आगे बढ़ने की अनुमति देता है, भले ही यह सैद्धांतिक रूप से एक कठिन समस्या है। और हमारी सोच भी सुंदर चालों पर निर्भर करती है। और इस तरह हम दर्शन का भी न्याय करते हैं।
जटिलता सिद्धांत का दर्शन
मूल्यांकन कैसे किया जाता है: क्या अधिगम की परिभाषा के हिस्से के रूप में बहुत सारी मूल्यांकन परतें हैं या केवल अंत में एक है, जैसे NP में, जहां मूल्यांकन परतों में विभाजित नहीं किया जा सकता? खैर, प्राकृतिक अधिगम के दो उदाहरण यह समझने में मदद करते हैं कि अधिगम क्या है - मस्तिष्क और विकास - और उनमें असंख्य मूल्यांकन परतें हैं, और वास्तव में प्रत्येक परत (या पीढ़ी) में अपने पूर्ववर्ती का मूल्यांकन होता है (इसलिए महिलाएं विकास में नेटवर्क की छिपी हुई परत हैं, अर्थात वे हैं जो प्रत्येक पीढ़ी को एक गहरे नेटवर्क में बदल देती हैं, इनपुट और आउटपुट के बीच एक आंतरिक मूल्यांकन परत के रूप में, यानी बच्चे)। इस प्रकार, उसी तरह, सीमा और प्राकृतिक संख्याएं हमें समझने में मदद करती हैं कि गणित में सामान्यीकृत अधिगम की अवधारणा क्या है, सतत और असतत क्षेत्र में (और मस्तिष्क का अधिगम सतत है, जबकि विकास का अधिगम असतत है)। लेकिन इस अमूर्तन से परे, जो गणित के सभी हिस्सों के लिए एक गहरी साझा सामग्री को दर्शाता है (गणित की सामग्री के रूप में अधिगम), गणित के रूप के रूप में भी अधिगम की खोज की जा सकती है। गणित के नीचे क्या है: गणित कैसे सीखा जाता है। उदाहरण के लिए: एक गणितज्ञ को परिभाषित करना। वर्तमान में, यह माना जाता है कि एक अधिगम एल्गोरिथ्म को बहुपद होना चाहिए। लेकिन सीखने वाले एल्गोरिथ्म के लिए बहुपद की सीमा सामान्य मामले में सही नहीं है (गणितज्ञ)। इसलिए हम मनुष्य के रूप में, मस्तिष्क के रूप में, बहुत सी चीजें करते हैं जिनके लिए हमारे पास एक कुशल एल्गोरिथ्म है, लेकिन हमारे पास कोई कुशल सामान्य अधिगम नहीं है, और न ही हो सकता है। सामान्य तौर पर, अधिगम केवल तभी कुशल होता है जब यह पहले सीखी गई चीजों के उपयोग के माध्यम से बहुत सीमित होता है। और इसलिए हमारे पास यह भ्रम है कि अधिगम एक कुशल प्रक्रिया है, क्योंकि हमारा अधिकांश अधिगम ऐसा ही है, लेकिन जो इस तरह के विशेष अधिगम को चिह्नित करता है वह है कि यह ज्ञान का अधिगम है। और इसलिए हमारी दुनिया में अधिकांश अधिगम ज्ञान का अधिगम है, क्योंकि नई क्रिया और एल्गोरिथ्म का अधिगम हमेशा अकुशल होता है। तो, ज्ञान क्या है? जब एक कुशल अधिगम एल्गोरिथ्म है। यह इसकी परिभाषा है। ध्यान दें कि हम जो कुछ भी सीखते हैं वह लगभग सब कुछ ऐसी चीजें हैं जो दूसरे करना जानते हैं, यानी हम तैयार फंक्शंस का उपयोग करते हैं, और उनसे निर्माण करते हैं, और हमारे अधिगम को तैयार फंक्शंस में विभाजित किया जा सकता है। इसलिए, उन परतों के निर्माण के लिए अधिगम के विभाजन में जिन्होंने इसे बनाया, हमें सभी संभावित विभाजनों के स्थान की संरचना के बारे में सोचना चाहिए जो एक समस्या को उप-समस्याओं में विभाजित करते हैं। लेकिन, शिक्षक से हर अधिगम परिभाषा को "सिस्टम के अंदर" की समस्या से उबरना होगा, अर्थात सहायता बाहर से छात्र का प्रोग्रामिंग और उनके बीच धोखाधड़ी और साजिश नहीं होनी चाहिए, लेकिन अगर विभाजन अधिकतम विभाजन है, यानी बहुत छोटे टुकड़ों में, तो यह बिल्कुल प्रोग्रामिंग जैसा है। क्या आदर्श विभाजन की पहचान की जा सकती है, जो प्रोग्रामिंग के बराबर पूर्ण टुकड़ों में विभाजन (अधिकतम विभाजन) और NP समस्या (न्यूनतम विभाजन, जहां केवल अंत में एक परीक्षक है और बीच में कोई मूल्यांकन नहीं है) के बीच मध्य में है? यदि कोई शिक्षक नहीं है, तो विकास होता है - जैसे विकास में जो पिछले एल्गोरिथ्म पर निर्माण करता है और गणित में जो पिछले प्रमाणों पर निर्माण करता है, और फिर समस्या का उप-समस्याओं में विभाजन प्राकृतिक है, क्योंकि इसे विभाजित करने वाला कोई नहीं है। अधिकतम विभाजन एल्गोरिथ्म है, लिखित कोड के रूप में, और न्यूनतम समस्या स्वयं है, मूल्यांकनकर्ता - और बीच में अधिगम वह है जो उन्हें जोड़ता है। यानी समस्या से एल्गोरिथ्म तक यह परिवर्तन स्वयं अधिगम प्रक्रिया है। अर्थात: और अधिक विभाजन जोड़ना (जब यह ऊपर से नीचे है, शिक्षक के दृष्टिकोण से) या और अधिक निर्माण संयोजन (जब यह नीचे से ऊपर है, छात्र के दृष्टिकोण से), और जब केवल छात्र है और कोई शिक्षक नहीं है तो यह विकास है, जो प्राकृतिक है। बहुपद समाधान का अर्थ है कि इसे सरल उप-समस्याओं में विभाजित किया जा सकता है, यानी सीखा जा सकता है। और इसलिए जो सीखा जा सकता है वह बहुपद की विशेषता है, और इसलिए अधिगम बहुपद की सीमाओं को समझने के लिए उपयुक्त निर्माण है (यानी जो इसे NP से अलग करता है)। क्योंकि अधिगम रैखिक से बहुपद का निर्माण है, यानी न्यूनतम से जो बस सभी इनपुट को पढ़ने की अनुमति देता है, और इसलिए बहुपद एक प्राकृतिक समूह है। और इसलिए हमें एक न्यूनतम विभाजन की खोज करनी चाहिए जो सीखने योग्य है, उदाहरण के लिए रैखिक उप-समस्याओं में न्यूनतम विभाजन, क्योंकि अधिकतम विभाजन रुचिकर नहीं है, क्योंकि यह कोड लिखने के समान है (और रैखिक निश्चित रूप से एल्गोरिथमिक क्षेत्र में सबसे बुनियादी अधिगम ब्लॉक का केवल एक उदाहरण है। और उदाहरण के लिए, संख्या सिद्धांत की शाखा में, यह गुणनफल में कारकों में विभाजन हो सकता है। या कोई अन्य सीमित फंक्शन, जो गणित में अन्य समस्याओं को परिभाषित करता है)। इसलिए, अधिगम की हमारी परिभाषा में, हम आदर्श उदाहरणों के चयन की कल्पना कर सकते हैं (अधिगम के लिए, शिक्षक द्वारा), जैसे हम न्यूनतम विभाजन की कल्पना करते हैं। जो सीखता है - और जो सिखाता है भी - को कम्प्यूटेशनल रूप से सीमित होने की आवश्यकता नहीं है, बल्कि यह निर्माणात्मक रूप से सीमित है। और हम यह भी ध्यान दें कि पिछले फंक्शंस के माध्यम से निर्माण का यह पूरा ढांचा मानव सोच से बहुत अधिक समान है (उदाहरण के लिए तर्क और भाषा और कम्प्यूटेशन और अवधारणा से)। हम नहीं जानते कि हम वे चीजें कैसे करते हैं जो हम करना जानते हैं, लेकिन हम उनके साथ चीजें करना जानते हैं। उनके माध्यम से सीखना। लेकिन हम नहीं जानते कि हमने कैसे सीखा, यह एक काली पेटी है। और सभी फंक्शंस जिनसे हमने अपने अधिगम में निर्माण किया वे हमारे लिए काली पेटी हो सकते हैं। यानी: यहां अधिगम में दो भाग हैं। एक भाग जो उस संरचना को परिभाषित और विशेषता करता है जिसे सीखना चाहते हैं - या वह विभाजन जो समस्या के लिए करना चाहते हैं - जो फंक्शंस पर सीमाएं हैं: मूल फंक्शंस क्या हैं और उनके अनुमत संयोजन क्या हैं। और यहां एक अन्य भाग है, जो पूछता है कि कौन सी जानकारी सभी संभावनाओं में से इस निर्माण को बनाती है - जो उदाहरण हैं। क्या शिक्षक और छात्र के बीच साजिश को रोकने के लिए निर्माण को एक विशिष्ट अधिगम एल्गोरिथ्म में किया जाना चाहिए, और सीखने वाले के किसी भी संभव एल्गोरिथ्म में नहीं (ताकि उदाहरणों के अंदर समाधान को कोड न किया जा सके)? आप एक सार्वभौमिक (अकुशल) एल्गोरिथ्म चुन सकते हैं, ऑकम के रेजर की मदद से, उदाहरणों के अनुरूप न्यूनतम लंबाई के संयोजन के रूप में, या शायद कोई अन्य नैव खोज एल्गोरिथ्म। और फिर आपको समस्या (सीखा जा रहा फंक्शन) के विभाजन का एक पेड़ मिलता है उप-समस्याओं में (जो उप-फंक्शंस हैं), प्रत्येक शाखा विभाजन में सही संयोजन (सही निर्माण) बनाने के लिए आवश्यक उदाहरणों की संख्या के साथ (शाखाओं की संख्या उप-फंक्शंस की संख्या के बराबर है जो उनके ऊपर की शाखा का निर्माण करती हैं)। और फिर शायद विभाजन के आयाम (जैसे विस्तृत उप-समस्याओं में विभाजन) और उदाहरणों की संख्या के बीच एक ट्रेड-ऑफ है। और फिर पेड़ NP समस्या में अनंत तक बढ़ सकता है, या जब निर्माण के लिए उप-ब्लॉक केवल समाधान का अनुमान लगाते हैं (जैसे अभाज्य संख्याओं में, जो केवल बड़ी अभाज्य संख्याओं का अनुमान लगाते हैं, क्योंकि वे सभी प्राकृतिक संख्याओं को फैलाने के लिए पर्याप्त नहीं हैं, क्योंकि अनंत अभाज्य संख्याएं हैं, और फिर यह अनुमान लगाया जा सकता है कि अनुमान अभाज्य संख्याओं की संख्या के संबंध में कितना पूर्ण और अच्छा है - और यह रीमान का प्रश्न है)। और फिर इसकी मदद से निर्माण की असंभवता की समस्याओं को व्यक्त किया जा सकता है। यदि आप शिक्षक के न्यूनतम प्रयास की मांग करते हैं, और न्यूनतम उदाहरण, तो यदि आपके पास पहले से सीखी हुई चीजें हैं, तो आप अगली चीज सीखने के लिए सर्वश्रेष्ठ न्यूनतम उदाहरणों की मांग करते हैं। और यह अपने आप में अधिगम प्रक्रिया में अगली चीज की जटिलता को कम करता है, क्योंकि उदाहरण के लिए नियम सिखाना बेहतर है, और फिर अतिरिक्त अधिगम में अपवाद। इसलिए यदि हमारे पास आदर्श छात्र और आदर्श शिक्षक हैं, तो हम पूछेंगे कि आदर्श अधिगम कैसा दिखता है। उदाहरण के लिए, शिक्षक कैसे इंगित करता है कि यह एक अपवाद का उदाहरण है? (ताकि एक नियम हो सके, और न केवल नियम का एक उदाहरण और एक विपरीत उदाहरण - यदि वे एक साथ दिए जाते हैं, यानी क्रमिक विभाजन के बिना - जो नियम को तोड़ सकता है, क्योंकि आप कैसे जानेंगे कि उदाहरणों में से कौन नियम है और कौन अपवाद है)? खैर, वह नहीं करता। वह बस पहले नियम सिखाता है। और फिर इसके बाद, अगली निर्माण परत में, नियम सीखे जाने के बाद, वह अपवाद सिखाता है। और फिर सबसे छोटी चीज जो सीखने वाला कर सकता है, यह मानते हुए कि उसके पास पहले से ही एक फंक्शन है जो नियम है, जो उसने पहले ही सीख लिया है, वह बस एक अपवाद जोड़ना है (कुछ मामलों में)। और इस तरह विभाजन उदाहरणों की संख्या में बचत कर सकता है। और विभाजन में जानकारी कुछ मामलों में कम जानकारी में सीखने की अनुमति दे सकती है, यहां तक कि जो सिखाया जा रहा है उससे भी कम (क्योंकि विभाजन में जानकारी, जो शिक्षक पाठ्यक्रम के क्रम में देता है, नहीं गिनी जाती)। यह अधिगम संरचनावाद है।
कम्प्यूटेशनल अधिगम का दर्शन
यदि ऐसा है, तो आपके पास फंक्शंस/एल्गोरिथ्म/ऑरेकल्स की एक सूची है और आपके पास एक फंक्शन है जो उनका एक सीमित संयोजन है, और आप उन्हें सर्वश्रेष्ठ चुने गए उदाहरणों से सीखते हैं, जब आप पर कोई कम्प्यूटेशनल सीमाएं नहीं हैं। और न ही शिक्षक पर। और सवाल यह है कि न्यूनतम उदाहरण क्या हैं जो समस्या के उप-फंक्शंस/एल्गोरिथ्म में विभाजन के साथ संभव हैं, जब आप ऑकम के रेजर के अनुसार सीखते हैं (उदाहरण के लिए एल्गोरिथ्म की जटिलता, इसकी लंबाई, या कोई अन्य सरलता मानदंड के अनुसार)। यदि विभाजन मुफ्त में आता है तो कुल उदाहरणों की संख्या को देखा जाता है, और फिर विभाजन अधिकतम है, यानी अधिगम जितना संभव हो उतना क्रमिक है। वैकल्पिक रूप से, आप उदाहरणों और विभाजन के बीच के अनुपात को देख सकते हैं (आवश्यक उदाहरणों की संख्या और दिए गए विभाजन में उप-समस्याओं की संख्या के बीच), जो निश्चित रूप से एक विपरीत अनुपात है। या एक ही समस्या के विभिन्न विभाजन पेड़ों की विभिन्न टोपोलॉजी की जांच करें (कितने तरीकों से एक ही समस्या को विभाजित किया जा सकता है, जो मौलिक रूप से अलग हैं?)। हमारा लक्ष्य अधिगम पेड़ को ऐसे तरीके से बनाना है जो समस्या को गैर-तुच्छ तरीके से समस्याओं में विभाजित करता है। क्योंकि यदि हम न्यूनतम विभाजन को देखें, जब विभाजन महंगा है और उदाहरण मुफ्त हैं, तो हम एक तुच्छ विभाजन प्राप्त करेंगे, यानी कोई विभाजन नहीं है, और हम मूल समस्या पर वापस आ गए हैं, जिसमें केवल एक परीक्षण और उदाहरण हैं, जो NP के समान है। इसलिए, आप इन सभी संभावित विभाजनों को भी देख सकते हैं, शायद कुछ फंक्शंस में अनंत, और देखें कि वे स्वयं एक दूसरे से कैसे निकलते हैं, और ऐसे पेड़ों के जंगलों की विशेषताएं क्या हैं। और फिर विभाजन का एक प्रामाणिक रूप खोजें, जो शायद विभाजनों की मात्रा और उदाहरणों की संख्या के बीच एक निश्चित अनुपात में है। अंत में उदाहरण रुचिकर नहीं हैं या उनकी संख्या, बल्कि पेड़ की संरचनाएं - एल्गोरिथ्म का उप-एल्गोरिथ्म में विभाजन क्या है। या समस्या का उप-समस्याओं में विभाजन। या एक प्रमेय का सभी संभव प्रमाणों में विभाजन (और पूरी गणित को भी एक प्रमाण ग्राफ के रूप में सोचा जा सकता है, जिसे एक ग्राफ के रूप में अध्ययन किया जा सकता है, और शायद इस ग्राफ की संरचना और गणितीय संरचनाओं के बीच संबंध पाया जा सकता है)। और यदि शिक्षक द्वारा दिया गया विभाजन छोटी उप-समस्याओं में पर्याप्त रूप से विस्तृत है, तो शायद अधिगम के लिए एक कुशल एल्गोरिथ्म है (यानी उदाहरणों के अनुसार निर्माण संयोजनों को खोजने के लिए), और शायद बस एक नैव खोज भी कुशल है, क्योंकि जो वास्तव में खोजना मुश्किल है वह विभाजन है। लेकिन यदि विभाजन न्यूनतम उदाहरणों की संख्या से निकलता है (यानी न्यूनतम उदाहरणों की संख्या जरूरी नहीं कि अधिकतम विभाजन की मांग करे) तो यह इसे शक्ति देता है (दोनों अर्थों में)। और यहां से हम विभिन्न प्रकार के उप-फंक्शंस के विभिन्न संयोजन फंक्शंस के बारे में सोचना शुरू कर सकते हैं, जो विभिन्न निर्माण समस्याएं बनाते हैं, जब निर्माण में क्या अनुमति है को सीमित किया जाता है। उदाहरण के लिए: केवल फंक्शंस का एक रैखिक संयोजन जो शिक्षक द्वारा दिए गए उदाहरण को देगा, या एक प्रमाण प्रणाली जो प्रमाण के उदाहरण की तरह प्रमाणित करेगी, या एक समूह सीखना, जो भी एक सरल फंक्शन है (जोड़), और इसे कम उदाहरणों में सीखा जा सकता है उसके सभी तत्वों के संयोजनों से यदि इसे उप-समस्याओं में विभाजित किया जाता है, और शायद उदाहरणों में भी उससे कम जानकारी होगी जो इसमें है (क्योंकि जैसा कि कहा गया विभाजन में जानकारी की गणना नहीं की जाती)। और फिर हम पूछ सकते हैं कि एक समूह में कितनी उदाहरण जानकारी है, या किसी अन्य गणितीय संरचना में, और यह अधिगम जानकारी की परिभाषा हो सकती है (भाषाई के विपरीत)। क्योंकि उदाहरणों से सामान्यीकरण अनुचित है, सिवाय जो पहले से है के आधार पर (वे फंक्शंस जो आपने पहले ही सीख लिए हैं, यानी जो शिक्षक द्वारा समस्या के उप-समस्याओं में विभाजन में पहले प्रस्तुत किए गए थे, जो सरल फंक्शंस हैं, जिनसे आप कुछ अधिक जटिल सीखते हैं, जैसे एक शिशु के अधिगम में या विकास के विकास में - और यह अधिगम की एक मौलिक विशेषता है)। यानी उस चीज का उपयोग करने के लिए एक तरह का संकेत है जो आपने पहले ही सीख ली है। जो आप पहले से जानते हैं वह आपका प्रायर है। और एक सतत फंक्शन में यह चरम है (क्योंकि आपको इसे अनावश्यक रूप से जटिल नहीं बनाना चाहिए, अन्यथा आप कभी भी सरल फंक्शंस नहीं सीखेंगे, और आप पहले सरलता के लिए प्रतिबद्ध हैं, ऑकम के रेजर के कारण)। इसलिए आपको जो जानते हैं उससे न्यूनतम संयोजन की आवश्यकता है - जो शिक्षक द्वारा दिए गए नए उदाहरण को उत्पन्न करता है। और यदि आप सरलता के लिए प्रतिबद्ध हैं तो यह धोखाधड़ी के लिए प्रतिरोधी है। क्योंकि यदि साजिश है (उदाहरण के लिए यदि शिक्षक उदाहरण के भीतर छात्र से अपेक्षित भार को एनकोड करता है), तो यह ऑकम के रेजर की शर्त को पूरा नहीं करता। एल्गोरिथ्म अस्वीकृत हो जाता है क्योंकि यह सबसे सरल नहीं देता। छात्र मनमाने ढंग से संयोजन नहीं चुन सकता बल्कि सरलतम और न्यूनतम को चुनना होगा। सरलता के लिए एक आंतरिक मानदंड है, जो मूल्यांकन पक्ष, स्त्री पक्ष (मूल्यांकन की मध्यवर्ती परतें) को पूरा करता है, और एक संयोजन फंक्शन भी है (जो विशिष्ट प्रकार की गणितीय संरचना के प्रत्येक अधिगम में भिन्न होता है। उदाहरण के लिए: ग्राफ़ अधिगम, समूह अधिगम, सतत फंक्शन अधिगम - जिसे बहुपद अनुमान या वैकल्पिक रूप से फूरियर ट्रांसफॉर्म आदि की मदद से बनाया जा सकता है, एल्गोरिथ्म अधिगम, प्रमाण अधिगम, खेल अधिगम, टोपोलॉजी अधिगम, भाषा अधिगम, इत्यादि)। और वह जानकारी जो कथित तौर पर बचाई जाती है, क्योंकि इसकी गिनती नहीं की जाती - वह संरचनात्मक है। अर्थात: ऐसा जो संरचनात्मक विभाजन (विघटन) से उत्पन्न होता है, और इसलिए यदि सीखी जा रही चीज में कोई संरचना नहीं है बल्कि केवल शोर है तो अधिगम को सभी जानकारी का स्थानांतरण करना होगा। यानी यह अधिगम नहीं बल्कि भाषाई जानकारी का स्थानांतरण है।
मशीन लर्निंग का दर्शन
यहाँ मूल प्रश्न, जो गणित के पूरे इतिहास में दोहराया गया है, वह है: फंक्शन कैसे बनता है? शायद यह भौतिक रूप से प्रकृति में बनता है (अस्तित्वमीमांसा), शायद यह ज्यामितीय रूप से बनता है (दृष्टि), शायद यह समझा जाता है (बुद्धि), शायद यह परिभाषित किया जाता है (तार्किक), शायद यह गणना किया जाता है, और शायद यह सीखा जाता है। यानी: उप-फंक्शन से निर्मित किया जाता है। और यहाँ से, फंक्शन परिभाषा के हिस्सों से, आज कंप्यूटर लर्निंग में सभी प्रमुख अधिगम अनुसंधान क्षेत्र निकलते हैं। जब अधिगम में फंक्शन का स्रोत नहीं होता (गणितीय शब्दावली में इसका डोमेन) तो यह प्रबलन अधिगम है (और तब सरलता सबसे सरल स्रोत की खोज करती है जो सबसे सरल फंक्शन को उत्पन्न करेगा), और जब फंक्शन की रेंज नहीं होती तो यह अनुपरवेक्षित अधिगम है (और तब सरलता सबसे सरल रेंज की खोज करती है जो सबसे सरल फंक्शन को उत्पन्न करेगा)। और जब फंक्शन की सरलता न केवल उप-फंक्शन के निर्माण से (कितनी जटिल है) बल्कि स्वयं उदाहरणों से इसके निर्माण से भी मानी जाती है तो यह सांख्यिकीय अधिगम है (उनसे दूरी का आकार सरलता की गणना का हिस्सा है)। अधिगम की परिभाषा का उद्देश्य सीखे जा रहे गणितीय वस्तु का विश्लेषण करना और उसकी आंतरिक संरचना को खोजना है। इसका उद्देश्य इसे बनाना है - पदानुक्रम (उप-समस्याओं में विघटन) और उदाहरणों की मदद से। यानी: दो प्रकार की संरचनात्मक जानकारी की मदद से, जो दो संरचनाओं के बीच संयोजन की अनुमति देती है: ऊपर-से-नीचे (लंबवत), और बगल से (क्षैतिज) - विभिन्न उदाहरण प्रत्येक स्तर पर नीचे की मंजिल से विभिन्न समानांतर संयोजन विकल्प हैं। और इसलिए गणित में सब कुछ संरचना की कमी और अतिरिक्त संरचना के बीच चलता है। बहुत अधिक स्वतंत्रता की डिग्री और बहुत कम। और इसलिए इसकी सीमाएं एक तरफ यादृच्छिकता और चरम जटिलता हैं जहाँ कुछ सार्थक कहना असंभव है, और दूसरी तरफ बहुत सरल और तुच्छ संरचना जिसमें जानकारी और समृद्धि की कमी है। इसलिए हमेशा इसके भीतर फ्रैक्टल सीमा को खोजना होता है - वहीं सौंदर्य है। और वहीं गणितीय रुचि भी है, क्योंकि वहाँ सबसे अधिक अधिगम जानकारी होती है, यादृच्छिक और अस्पष्ट जानकारी के विपरीत (इस अर्थ में कि डिकोड नहीं किया जा सकता), या तुच्छ और अस्पष्ट जानकारी (इस अर्थ में कि डिकोड करने के लिए कुछ नहीं है, क्योंकि यह हर्मेटिक रूप से बंद है)। और ये गणित की मूल विशेषताएं क्यों हैं? क्योंकि सब कुछ सीखा जाता है, और अधिगमशीलता संरचनात्मकता का मूल है, और संरचनात्मकता की जटिलता का भी मूल है, क्योंकि यह कभी भी एक आयामी संरचनात्मकता नहीं है, बल्कि द्वि-आयामी है (जो इसे निर्माण बनाती है), जैसा कि हमारे पास संख्याओं में है (जोड़ और गुणा)। और ध्यान दें, कि ऊपर परिभाषित अधिगम में सरलता ऑनलाइन है, और समग्र के सामने नहीं जैसा कि सरल ऑकम रेजर में है (MDL, सोलोमोनोफ, या कोल्मोगोरोव जटिलता में)। यानी: हम पहले उदाहरण के बाद सबसे सरल परिकल्पना की खोज कर रहे हैं, और फिर मान लीजिए कि हम इसे (इस परिकल्पना को) नीचे एक और तैयार फंक्शन के रूप में लेते हैं, और इसमें अगला उदाहरण जोड़ते हैं, और फिर सबसे अच्छी और सरल परिकल्पना की खोज करते हैं, पिछली परिकल्पना को ऐसी मानते हुए जिसकी कोई लागत नहीं है, यानी सरल के रूप में। यानी: पहले चरण में सीखा गया फंक्शन अब जटिलता और सरलता की गणना में नहीं गिना जाता। और शायद सरलता फंक्शन की एक सार्वभौमिक और सरलतावादी परिभाषा भी संभव हो - बस संयोजनों की संख्या के रूप में। यानी सरलता केवल संयोजन के विचार के परिणाम के रूप में, और न कि एक स्वतंत्र मानदंड और मूल्यांकन के रूप में।
गणित का दर्शन: सारांश
इस सब की मदद से, हम अधिगम के माध्यम से परिमित और अनंत के बीच अंतर को नए सिरे से सीखे और न सीखे गए के बीच अंतर के रूप में चिह्नित कर सकते हैं, जो इन दो श्रेणियों के बीच एक अधिक सटीक विभाजन बनाता है। बीजगणितीय संरचना, परिमित, अंततः हमेशा सीखी जाती है। जबकि अनंत संरचना की श्रेणी, सतत, केवल सीमा में पूरी तरह से सीखी जा सकती है, यानी यह परिमित रूप से सीखी नहीं जाती। अनंतता क्षैतिज हो सकती है बगल की ओर (प्रत्येक चरण में उदाहरणों के संग्रह में), या लंबवत ऊपर की ओर (संयोजन में) या नीचे की ओर (मूल फंक्शन के संग्रह में जिससे हम शुरू करते हैं)। और ऐसी दृष्टि में, निरंतरता और सरलता जुड़ी हुई हैं। सब कुछ परिमित है लेकिन अनुमानित किया जा सकता है। यानी: सीमा की गणना नहीं की जा सकती, लेकिन इसे सीखा जा सकता है, दूरी को कम किया जा सकता है। और यदि सरलता मापन फंक्शन में अनुमान जोड़ा जाता है (विपरीत विवेक में आवश्यक सटीकता के, जहाँ उदाहरणों को पुनर्निर्मित करना अनिवार्य है - और यही वास्तव में विवेक की परिभाषा है), तो डेरिवेटिव का विचार फंक्शन का रैखिक अनुमान है (यानी यदि केवल रैखिक निर्माण की अनुमति है), और इसी तरह (उच्च डेरिवेटिव में, जो अधिगम में उच्च परतें हैं, श्रेणी तक)। और निरंतरता शून्य क्रम का डेरिवेटिव है - स्थिर। यानी, कैलकुलस में सरलता क्या है? उदाहरणों पर सरलता और संयोजन पर नहीं (या संयोजन पर भी, जैसे रैखिक प्रतिगमन में)। और इंटीग्रल विपरीत समस्या है, शिक्षक की समस्या: कैसे एक ऐसा फंक्शन खोजें जो छात्र के मूल्यांकन को - उसके अनुमान को - एक विशिष्ट फंक्शन की तरह दिखने का कारण बने। और विवेकी दुनिया में, जो सटीक रूप से उदाहरणों द्वारा नियंत्रित होती है, हम उन चीजों में अनंत समस्याएं पाते हैं जिन्हें अंत तक नहीं सीखा जा सकता, जैसे अभाज्य संख्याएं (जब निर्माण में अनुमत संयोजन गुणन है)। और तब उदाहरण के लिए यह पूछा जा सकता है कि प्राकृतिक संख्याओं का संयोजन वृक्ष कितना जटिल है, औसतन (यानी उनका अभाज्य विघटन, जो न्यूनतम उदाहरणों के साथ सीखा जाता है)। प्राकृतिक संख्याओं के समूह को कैसे बनाया जाए, जब संयोजन गुणन है, इसे समझने का अर्थ है यह जानना कि शिक्षक को कितने उदाहरण देने होंगे, एक निश्चित संख्या तक प्राकृतिक संख्याओं को बनाने के लिए। यानी, गणित में मूल प्रश्नों के लिए एक अधिगम सूत्रीकरण है - जो उन्हें एक अधिगम समाधान की अनुमति देगा, जब से भाषा का प्रतिमान बदल जाएगा जो इन प्रश्नों में प्रगति को रोक रहा है, एक अनुपयुक्त वैचारिक ढांचे के कारण। और इस तरह दर्शन गणित की - और गणितीय अधिगम की मदद कर सकता है।
कंप्यूटर लर्निंग का दर्शन
कंप्यूटर विज्ञान के दर्शन के बाद अगला चरण कंप्यूटर लर्निंग का दर्शन है। डीप लर्निंग की आज की स्थिति इंटरनेट से पहले पर्सनल कंप्यूटर की स्थिति जैसी है। और भविष्य डीप लर्निंग नेटवर्क और मशीन लर्निंग क्लासिफायर का एक इंटरनेट नेटवर्क है, जो प्रोटोकॉल द्वारा जुड़े हुए हैं, और अधिगम निर्माण में उन्हें जोड़ने की क्षमता बनाते हैं। यानी: डीप लर्निंग के विभिन्न मॉड्यूल को जोड़ना, जिनमें से प्रत्येक किसी चीज में विशेषज्ञ है, एक बड़ी प्रणाली में, जो वास्तव में दुनिया के बारे में बहुत कुछ जानती है, मस्तिष्क की तरह, और जो केवल विशिष्ट डेटा के अनुसार प्रशिक्षित अलग-थलग विशेषज्ञ प्रणालियां नहीं होंगी। डीप नेटवर्क का ऐसा नेटवर्क एक तरह का बाजार होगा, जहां थोड़े पैसे के बदले थोड़ा वर्गीकरण, या कोई अन्य क्षमता या क्रिया मिलती है, और कृत्रिम अधिगम का एक विशाल पारिस्थितिकी तंत्र बनता है। और यह महान बुद्धि की ओर प्रवेश द्वार होगा - और इससे कृत्रिम बुद्धि विकसित होगी, न कि किसी विशिष्ट प्रणाली से - यह एक दिन किसी प्रयोगशाला में किसी नेटवर्क से तय नहीं होगी, बल्कि नेटवर्क से उभरेगी। ऐसी बुद्धि की प्राकृतिक श्रेणियां क्या होंगी? जैसे कि गणना की दुनिया में, ट्यूरिंग मशीन ने स्थान के विचार को मेमोरी के रूप में फिर से परिभाषित किया, यानी जानकारी के रूप में जो जगह लेती है, और समय के विचार को गणना में कार्यों के रूप में, यानी कुछ ऐसा जो समय लेता है (और इसलिए - दक्षता), वैसे ही डीप लर्निंग उन्हें फिर से परिभाषित करती है। अब स्थान क्या है? कुछ स्थानीय, जैसे कन्वोल्यूशनल नेटवर्क में, यानी एक प्रणाली जिसमें कोई चीज अपने करीब की चीजों को प्रभावित करती है। और समय क्या है? निरंतर मेमोरी, जैसे RNN में, यानी एक प्रणाली जिसमें कोई चीज अपने से दूर की चीजों को प्रभावित करती है। पिछली दुनिया, गणना की दुनिया, ने स्थान के महत्व को कम कर दिया (क्योंकि सब कुछ मेमोरी में है), और इसके प्राकृतिक आयामों को समाप्त कर दिया (मेमोरी स्वभाव से एक-आयामी है), और इसके विपरीत समय और गति के आयाम पर जोर दिया। और यहाँ, डीप लर्निंग की दुनिया में, हम देखते हैं कि समय के आयाम का विस्तार करने का विशेष अवसर है, जो अब एक-आयामी नहीं रहेगा, क्योंकि चीजें दूर से कई दिशाओं से प्रभावित कर सकती हैं - और एक से अधिक आयामों में। निश्चित रूप से एक डीप लर्निंग नेटवर्क दो या अधिक समय आयामों के साथ संभव है, यानी समय आयाम में अपनी प्रतियों से एक से अधिक आयामों में जुड़ा हुआ है, और न केवल पीछे की ओर रिकर्सिव, बल्कि दो या अधिक चर/दिशाओं में रिकर्सिव। यानी, यदि गणना स्थान का समयीकरण था (सब कुछ, पैसे सहित, समय के बराबर है), तो डीप लर्निंग समय का स्थानीयकरण हो सकती है (सब कुछ स्थान होगा, समय भी)।
डीप लर्निंग का दर्शन
डीप लर्निंग किससे बनी है? गणित में सीखी जाने वाली दो सबसे बुनियादी और प्राथमिक चीजों से, यानी सेमेस्टर ए से: लीनियर 1 और इन्फिनी 1 से। रैखिक बीजगणित संयोजन है, जिसके बारे में हमने बात की (और यह सबसे सरल संभव संयोजन है: रैखिक संयोजन)। और इसके अलावा डेरिवेटिव भी है, जो दिशा देता है, तीसरे नैतनीय स्तंभ के अनुसार (डेरिवेटिव एक दिशा है और इसलिए यह सबसे सरल निर्देशन है)। यानी: अधिगम वास्तव में क्या करता है? उदाहरणों को निर्देशों से बदलता है। और क्या अधिगम को गहरा बनाता है? कि यह सारा निर्माण एक प्रणाली के भीतर किया जाता है। यह प्रणाली की गहराई है (और दूसरा स्तंभ)। और अधिगम अब हर समय प्रणाली की सतह के करीब नहीं है, जैसे भाषा में, प्रणाली के बाहरी उदाहरणों के साथ संवाद में (नेटवर्क के नीचे और शीर्ष पर)। और इसके अलावा, प्रत्येक परत अपने नीचे की परत के लिए महिला है और ऊपर की परत के लिए पुरुष है, चौथे नैतनीय स्तंभ के अनुसार। यानी हम यहाँ सभी स्तंभों का वास्तविक कार्यान्वयन देखते हैं (और पहला भी, यदि आप ध्यान दें)। बिल्कुल भविष्यवाणी की तरह। और यह भी ध्यान दें, कि यहाँ दो तत्व हैं, जो अधिगम के पूरे इतिहास में एक दूसरे से प्रतिस्पर्धा करते हैं: निर्देशन बनाम संरचना। यहाँ हम उन्हें अधिगम समय के दौरान पीछे की ओर प्रसार में सब कुछ धो देने वाले ग्रेडिएंट डेरिवेटिव में देखते हैं (निर्देशन) बनाम एक विशिष्ट मॉडल का निर्माण (उदाहरण के लिए नेटवर्क की विशिष्ट आर्किटेक्चर, जो पहले से तय की जाती है, लेकिन इससे भी अधिक कई विचार जो आज कम लोकप्रिय हैं, जैसे किसी विशिष्ट समस्या के लिए मजबूत प्रायर्स के साथ एक विशिष्ट अधिगम मॉडल बनाना, हर समस्या के लिए डीप नेटवर्क के सामान्य दृष्टिकोण के बजाय)। और यह सब केवल वातावरण बनाम वंशानुक्रम, और अनुभववाद बनाम तर्कवाद, और अरस्तू बनाम प्लेटो की उसी पुरानी समस्या का हमारे समय का अवतार है। या मुक्त प्रतिस्पर्धा और अदृश्य हाथ (निर्देशन की दुनिया) बनाम समाजवाद और राज्य (संरचना की दुनिया), उदारवाद बनाम रूढ़िवाद, और लैमार्कियन विकास (निर्देशन के चरम में) बनाम बुद्धिमान डिजाइन (संरचनात्मक चरम में)। गणितीय स्तर पर, निर्देशन सतत है, और विश्लेषण और ज्यामिति की दुनिया से संबंधित है, जबकि संरचनात्मक संयोजन भाषाई है, और बीजगणित और तर्क की दुनिया से संबंधित है। और डीप लर्निंग इस द्वंद्व में निर्माण के बजाय निर्देशन के अधिगम दृष्टिकोण की एक शानदार जीत है (लेकिन प्रति-आंदोलन अभी आएगा), और यह पूंजीवाद और लोकतंत्र की जीत के समानांतर है (संचार और चुनाव का निर्देशन बनाम नौकरशाही और शासकीय संरचना), या समाज में संरचना की कीमत पर सुखवाद का प्रभुत्व। क्योंकि डीप लर्निंग में यह पता चलता है कि संरचना बस बहुत सारे फीडबैक और निर्देशन की तुलना में बहुत कम महत्वपूर्ण है (लेकिन निश्चित रूप से यहाँ एक संश्लेषण है, क्योंकि आखिर डीप लर्निंग जैसी ऊंची पदानुक्रमता कहाँ है? बस यह पता चलता है कि पदानुक्रमता के विवरण कम महत्वपूर्ण हैं, और वास्तव में इसमें हर चीज निर्देशन की मदद से तय की जाती है, और इस तरह हमारे पास एक काफी सामान्य अधिगम तंत्र बन जाता है, जो एक तरह का अनुभवजन्य खाली स्लेट है)। इसलिए, अधिगम क्या है यह समझने के लिए, शायद जो चाहिए वह है अधिगम के लिए आवश्यक उदाहरणों और आवश्यक संरचना प्रदान करने के बीच अनुपात लेना, यानी यह कैसे बदलता है (उनके बीच का संबंध)। जितने अधिक उदाहरण उतनी कम संरचना की आवश्यकता होती है, और इसके विपरीत। और समझना कि यह फंक्शन कैसा दिखता है, और यही महत्वपूर्ण जांच है, न कि क्या संरचना उदाहरणों से अधिक या कम महत्वपूर्ण है। उदाहरण के लिए क्या यह फंक्शन रैखिक है, क्या बहुपदीय है, क्या घातीय है, और इसी तरह, विभिन्न समस्या क्षेत्रों में (उदाहरण के लिए यदि विभिन्न गणितीय वस्तुएं सीखी जा रही हैं, और वास्तविकता में विभिन्न समस्याएं भी)। यानी, जो पूछना चाहिए वह है उदाहरणों की मात्रा और प्रायर्स की मात्रा के बीच क्या संबंध है। और यह वही विचरण बनाम पूर्वाग्रह की समस्या है, जो मशीन लर्निंग के केंद्र में है (लेकिन डीप लर्निंग के केंद्र में कम है, विचरण की पूर्वाग्रह के विरुद्ध बड़ी जीत के बाद, डीप लर्निंग के असंख्य पैरामीटर्स के साथ, जो बाधाओं की संख्या से कहीं अधिक हैं)।
न्यूरोसाइंस का दर्शन
हेब का नियम जैसा नियम (जो डीप नेटवर्क की वैश्विकता के विपरीत बहुत स्थानीय है) कैसे संभव है, जो धनात्मक या ऋणात्मक स्व-फीडबैक की ओर झुकता है (एक घातक भ्रष्ट विशेषता)? हेब का नियम कैसे एक बुनियादी अधिगम तंत्र के रूप में संभव है, जिसका न तो निर्देशों से कोई संबंध है - और न ही संरचना से, न बाहर से - और न ही भीतर से? खैर, हेब का नियम केवल "फायर एंड वायर" नहीं है (एक साथ फायर करने वाले न्यूरॉन्स एक साथ जुड़ते हैं - fire&wire भाई), बल्कि इसका वास्तविक सूत्रीकरण यह है कि मैं उससे कनेक्शन को मजबूत करता हूं जिसने मुझे पूर्वानुमानित किया, और उससे कमजोर करता हूं जिसे मैंने पूर्वानुमानित किया। इसलिए, यह नियम केवल इस मान्यता के तहत तर्कसंगत है कि न्यूर्स पूर्वानुमान करते हैं। और यह वास्तव में एक बहुत ही सामान्य नियम है, जो कि बहुत ही सामान्य है। यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलन है, जो कि एक प्रकार का स्थानीय अनुकूलन है। और यह एक प्रकार का स्थानीय अनुकूलइस तरह, हम देखते हैं कि जब कोई समस्या होती है, तो पैरामीटर्स का खोज स्थान केवल अनुकूलन की तरह नहीं बल्कि खोज की तरह काम करना चाहिए - यानी अन्वेषण। और अधिक नवीनताएं प्रस्तावित करनी चाहिए - नए संयोजन। जब स्वतंत्र मूल्यांकन होता है, जहां एक परत अपने नीचे की परत का मूल्यांकन अपने स्वयं के मापदंड से करती है, न कि केवल ऊपर से मिले निर्देश के अनुसार (बैक प्रोपेगेशन में), तब आप खोज भी कर सकते हैं, और खोज के क्षेत्र को पूरे रास्ते में कम कर सकते हैं (यानी विभिन्न परतों के बीच, इसलिए खोज को ब्रूट फोर्स में अनंत संयोजनों में विस्फोट नहीं करना पड़ेगा)।
नेटवर्क अनुसंधान का दर्शन
फीडबैक क्या उत्पन्न करता है? सरल शब्दों में, आंशिक डिफरेंशियल समीकरण और रिकर्सिव समीकरण, जो वास्तव में फीडबैक तंत्र हैं, और इससे जटिलता और अराजकता की घटनाएं होती हैं। इसलिए मस्तिष्क में भी, और सामान्य रूप से सीखने में, फीडबैक लूप समान घटनाएं उत्पन्न करेंगे, जो इस प्रकार सीखने के लिए स्वाभाविक हैं, न कि इसकी खामियां। लेकिन किस प्रकार का फीडबैक है? मूल्यांकन के पीछे की दिशा में ग्रेडिएंट डिसेंट (=ढलान में गिरावट, अनुकूलन में) के बैक प्रोपेगेशन के लिए वैकल्पिक तंत्र हैं। उदाहरण के लिए: सरलता की आकांक्षा (मूल्यांकन यह मापने के अनुसार है कि यह कितना सरल है, जैसे ऑकम के रेजर के अनुसार)। या नवीनता की आकांक्षा। या विविधता और विविधीकरण (एक निश्चित वितरण)। लेकिन फीडबैक का सबसे महत्वपूर्ण गुण यह नहीं है कि यह किस के अनुसार है, बल्कि यह है कि वह कितना बड़ा लूप बनाता है, क्योंकि यह एक प्रणालीगत गुण है। और यहां बैक प्रोपेगेशन की कमजोरी स्पष्ट है, जो एक विशाल फीडबैक लूप बनाता है, जो एक बड़ी प्रणाली में बहुत कृत्रिम है - और बहुत धीमा है। एक अधिक उचित और इसलिए अधिक आम विकल्प छोटे फीडबैक लूप हैं (कृत्रिम न्यूरल नेटवर्क के बाहर दुनिया में कोई भी सीखने वाली प्रणाली बैक प्रोपेगेशन से नहीं सीखती)। उदाहरण के लिए मस्तिष्क में, न्यूरॉन्स की परतों के बीच विपरीत दिशा में बहुत सारे वापसी कनेक्शन हैं (जो डीप लर्निंग में मौजूद नहीं हैं)। जो वर्तमान में मस्तिष्क की समझ में कमी है - और इसी तरह डीप लर्निंग में - वह है प्रतिस्पर्धा का विचार, और जनसंख्या में एक विचार का प्रसार (जो वास्तव में बी के नियम के लिए अधिक उपयुक्त है)। क्योंकि हर चरण में, मस्तिष्क में कई विकल्प प्रतिस्पर्धा करते हैं, कई विचार आगे बढ़ते हैं, और एक चुना जाता है। यानी किसी मूल्यांकन पर प्रतिस्पर्धा होती है, जो तय करती है कि सीखना कैसे आगे बढ़े। यानी: फीडबैक का सबसे बड़ा महत्व वास्तव में प्रतिस्पर्धा में है जो यह बनाता है (ठीक वैसे ही जैसे अर्थव्यवस्था या लोकतंत्र में, फीडबैक का अस्तित्व ही महत्वपूर्ण है, भले ही यह आदर्श न हो)। लेकिन बहुत बड़े फीडबैक लूप में यह सब खो जाता है या अप्रभावी होता है, छोटे लूप में करीबी प्रतिस्पर्धा की तुलना में। गूगल के पेजरैंक एल्गोरिथ्म में भी हब्स हैं, जो मूल्यांकन करते हैं, और यह वास्तव में इसका सार है - ग्राफ का विश्लेषण इस तरह से कि नेटवर्क में कुछ नोड्स दूसरों का मूल्यांकन करते हैं (और बदले में उनका मूल्यांकन किया जाता है)। यह सब न्यूरल नेटवर्क के बहुत समान है, और इस तरह रैंकिंग के लिए साइटों के बीच प्रतिस्पर्धा होती है, और सामान्य तौर पर नेट में गुणवत्ता की प्रतिस्पर्धा। और विज्ञान में? हर पेपर दूसरों को उद्धृत करता है, यानी यह नेटवर्क में मूल्यांकन है, जहां परतें नहीं हैं बल्कि सभी सभी से जुड़े हैं। और परतें प्रकाशन के समय के अनुसार बनती हैं (हर पेपर अपने से पहले प्रकाशित लोगों का मूल्यांकन करता है)। यानी हमारे पास ऐसी परतें हैं जो अपने से पहले वालों का मूल्यांकन करती हैं, और अपने बाद वालों द्वारा मूल्यांकित होती हैं, और इस तरह प्रतिस्पर्धा बनती है, एक बहुत ही सरल नेटवर्क तंत्र की मदद से। इन दोनों मामलों में मूल्यांकन और प्रतिस्पर्धा बनाने के लिए बाहर से बड़े फीडबैक लूप की आवश्यकता नहीं है, बल्कि उनमें मूल्यांकन स्वयं से उत्पन्न होता है। मजबूत बाहरी मूल्यांकन की आवश्यकता नहीं है जैसा कि विकास में प्रतिस्पर्धा बनाने के लिए है, और यह बिना पर्यवेक्षण वाली सीखने की कुंजी है, जो मस्तिष्क में प्रमुख सीखने का तरीका है, और डीप लर्निंग की बड़ी कमी है, जिसे बड़ी मात्रा में उदाहरणों की आवश्यकता होती है (वैसे, विकास में भी मुख्य प्रतिस्पर्धा जीवनसाथी के लिए है, यानी छोटे, प्रजाति के भीतर के फीडबैक लूप के लिए, न कि बड़े विलुप्तीकरण के खिलाफ)। इस तरह हम देखते हैं कि विशेष रूप से उन नेटवर्क में जहां स्पष्ट बाहरी मूल्यांकन नहीं है, जैसे फेसबुक, स्टॉक मार्केट, और डेटिंग, और पेपर्स में, फिर भी तीव्र प्रतिस्पर्धा संभव है। ऐसे नेटवर्क में आपको एक नंबर मिलता है, जैसे कीमत या लाइक्स या h-index या पेजरैंक और गूगल में रैंकिंग, और आप पर दिशानिर्देश। यह नंबर आपको कोई दिशानिर्देश नहीं देता, बल्कि केवल एक मूल्यांकन, और आपको इसकी व्याख्या करनी होती है और इससे समझना होता है कि आपको किस दिशा में बदलना चाहिए। और यह डीप लर्निंग में ग्रेडिएंट के विपरीत है जो आपको ऊपर से दिशा देता है। और शायद यह तर्क दिया जा सकता है कि पॉलीनोमियल डोमेन वह है जिसमें मध्यम दिशानिर्देश हैं, जबकि NP समस्याओं का वर्ग है जिसमें कोई दिशानिर्देश नहीं है, और डेरिवेटिव नहीं है, बल्कि अराजक और गैर-स्थानीय है। इसलिए NP से सीखना चाहिए कि मूल्यांकन सीखने के लिए पर्याप्त नहीं है। केवल दिशानिर्देश। क्योंकि NP ठीक यही विशाल फीडबैक लूप है, बाहर से, जो पता चलता है कि अंदर सीखने के लिए कुछ नहीं देता, जो हमें समाधान की ओर ले जाएगा। ऐसे मूल्यांकन से दिशानिर्देश नहीं निकाला जा सकता। क्या पॉलीनोमियल वैकल्पिक रूप से लैमार्कियन है, यानी स्थानीय अनुकूलन में विभाज्य है, यानी यह निर्माण+दिशानिर्देश है? मस्तिष्क में अभी भी नहीं पता कि सीखना कैसे काम करता है, लेकिन विकास में हां, और हम देखते हैं कि उसमें भी एक महत्वपूर्ण विशेषता है: एक स्वतंत्र मूल्यांकन फ़ंक्शन, जिसके कारण दो लिंग हैं। यानी भले ही जीवन और मृत्यु का एक मजबूत बाहरी मूल्यांकन है, सीखने के काम करने के लिए प्रणाली के भीतर एक स्वतंत्र आंतरिक मूल्यांकन भी चाहिए, एक प्रजाति का। बड़ा फीडबैक लूप छोटे और अधिक निकट के फीडबैक लूप में विभाजित होना चाहिए, जो केवल इसका डेरिवेटिव नहीं हैं, शाब्दिक रूप से। एक सांस्कृतिक/राजनीतिक/कंपनी/अर्थव्यवस्था नेटवर्क में भी स्वतंत्र मूल्यांकन फ़ंक्शन हैं। यानी: ऐसे भाग हैं जिनका यही एकमात्र फ़ंक्शन है। और फिर इस पर प्रतिस्पर्धा होती है, यानी दोहराव और अतिरेक और विविधता और भिन्नता और विकल्पों की तुलना होती है (अन्यथा सभी सीखने वाली प्रणालियों में मनोवैज्ञानिक अतिरेक क्यों मौजूद है? मस्तिष्क में इतने सारे न्यूरॉन्स और जीनोम में जीन्स और प्रजाति में जीव - और देश में लोग क्यों हैं)। यदि ऐसा है, तो आंतरिक मूल्यांकन कैसे काम करता है? यह स्वयं कैसे मूल्यांकित होता है? खैर, प्रणाली के भीतर बस स्वतंत्र मूल्यांकन इकाइयां हैं, जो स्वतंत्र रूप से निर्देशित होती हैं, न कि केवल फीडबैक का एक बड़ा समग्र लूप। मोटे तौर पर, प्रणाली के लिए सामान्य फीडबैक दुर्लभ और महंगा होता है, और इसलिए द्वितीयक मूल्यांकन फ़ंक्शन पर निर्भर करता है। और बस मूल्यांकन फ़ंक्शन भी सीखता है। और NP में क्या होता है? द्वितीयक मूल्यांकन विफल हो जाते हैं। वास्तव में, प्रणाली के बाहर से प्रबलन सीखने का पूरा विचार एक ऐसी चीज के रूप में जो प्रणाली का सीखना बनाता है (उदाहरण के लिए व्यवहारवाद) सीखने की एक सरल दार्शनिक छवि से उत्पन्न एक वैचारिक गलती है। हमारे पास कभी भी अंतिम फीडबैक नहीं होता, सारा हिसाब अभी खत्म नहीं हुआ है।
न्यूरल नेटवर्क का दर्शन
स्वतंत्र मूल्यांकन, प्रणाली के भीतर, बाहरी मूल्यांकन के विपरीत, जो प्रणाली के बाहर से इसे सिखाने आता है, कैसे और मदद करते हैं? क्योंकि आपको पहले जो सीखा है उसे नई सीख से बचाना भी जरूरी है जो इसे मिटा देती है। और आंतरिक मूल्यांकन पहले के सीखने की रक्षा करता है जो इसने बाहरी बहते हुए निर्देशों से नष्ट होने से बचाता है (जैसे बैक प्रोपेगेशन में)। इस तरह नया फीडबैक केवल कुछ नए तक पहुंच सकता है, और उसकी दिशा में निर्देशित किया जा सकता है, न कि सभी पुराने की दिशा में, और जोड़ता है - मिटाता नहीं। जो स्मृति को संरक्षित करने की अनुमति देता है वह यही है कि पीछे की ओर सीखना नहीं है। उदाहरण के लिए यह लैमार्कियन नहीं है, बल्कि DNA की सीख है, यानी डिजिटल न कि केवल एनालॉग निरंतर (जो सब डेरिवेटिव और अनुकूलन में अभिसरण के माध्यम से क्षीण हो जाता है)। और यह संयोजन को भी सक्षम बनाता है। जब मूल्यांकन स्वतंत्र होते हैं, सीखना हर बार केवल एक परत पीछे जाता है। वहीं जादू होता है, उदाहरण के लिए जटिलता का, बस एक और परत की मदद से। विकास में भी - यह हमेशा एक पीढ़ी है। बैक प्रोपेगेशन बुराई की जड़ है, जिसने पूरे डीप लर्निंग क्षेत्र को ब्रूट फोर्स, ब्लैक बॉक्स और इसलिए इंजीनियरिंग में बदल दिया है न कि विज्ञान में। सभी समस्याग्रस्त घटनाएं इससे उत्पन्न होती हैं। और कोई भी प्राकृतिक प्रणाली इस तरह नहीं सीखती। कैटास्ट्रोफिक फॉरगेटिंग (वह घटना जिसमें एक डीप नेटवर्क जो सीखा था भूल जाता है यदि अब उसे दूसरी तरह के उदाहरण दिए जाएं) और डीप लर्निंग में बिल्डिंग ब्लॉक्स को अच्छी तरह से जोड़ने की अक्षमता टल जाती अगर हमने शुरू में प्रस्तुत किए गए मॉडल को चुना होता, शिक्षक और निर्माण का। कैटास्ट्रोफिक भूलना वास्तव में इसलिए है क्योंकि कोई स्मृति नहीं है, बल्कि केवल क्रिया या सीखना है। इसलिए सीखने के प्रति प्रतिरोधी स्मृति की आवश्यकता है, यानी: ऐसे मामले जहां नेटवर्क तय करता है कि उसने कुछ उपयोगी सीखा है, या कोई विशेष अवधारणा, और इसे परिवर्तन की निरंतरता से अलग संरक्षित करता है (या इसके लिए परिवर्तन की क्षमता को बहुत धीमा कर देता है)। इसलिए जो आपने किया है उसे मजबूत करने का एक तरीका चाहिए न कि केवल इसे न बदलना, बल्कि हर पैरामीटर के लिए एक विश्वास पैरामीटर होना चाहिए, जो हर बार मजबूत होता है जब आप सफल होते हैं (यानी जब पैरामीटर के निर्देश के लिए लगभग कोई परिवर्तन डेरिवेटिव नहीं होता, जो भी मूल्यवान जानकारी है, जो आज लगभग खो जाती है, हालांकि यह आंशिक रूप से ग्रेडिएंट डिसेंट के अनुकूलन एल्गोरिथम में प्रभावित करती है, उदाहरण के लिए मोमेंटम में)। याद रखना न सीखने की क्षमता है। कुछ भी सीखने के लिए जो बना रहे, न सीखने की क्षमता की आवश्यकता होती है, और हर नई जानकारी से प्रभावित नहीं होना जैसे निर्देशों की हवा। बैक प्रोपेगेशन तंत्र में कोई भी परिवर्तन डीप लर्निंग में अन्य परिवर्तनों से कहीं अधिक मौलिक है, क्योंकि यह विधि है, सीखने का तंत्र। और वहां इसे ठीक किया जा सकता है। और दर्शन की भूमिका इस अवधारणात्मक गहन विश्लेषण का विश्लेषण करना है (जो यह आज लगभग नहीं करता है, और इसलिए कोई दार्शनिकों को भुगतान नहीं करता है, उस अद्भुत मूल्य के बावजूद जो वे प्रदान कर सकते हैं)।
डीप लर्निंग का दर्शन: सारांश
इसलिए, जो चाहिए वह एक ऐसा मॉडल है जिसमें जो कुछ भी नीचे जाता है (मूल्यांकन) एक डीप मूल्यांकन नेटवर्क में जुड़ा हुआ है, और हर परत में नियमित डीप नेटवर्क में जो हो रहा है उसके लिए आउटपुट और इनपुट हैं, यानी कम्प्यूटिंग नेटवर्क में समानांतर परत के लिए, जो ऊपर जाता है। कम्प्यूटिंग नेटवर्क से मूल्यांकन नेटवर्क में इनपुट कम्प्यूटिंग नेटवर्क की एक परत का आउटपुट है, जो मूल्यांकन नेटवर्क को मूल्यांकन के लिए भेजा जाता है। और मूल्यांकन नेटवर्क से कम्प्यूटिंग नेटवर्क में आउटपुट इसका मूल्यांकन आउटपुट है - जो एक निर्देश है। हां, यह दोनों दिशाओं से पूरी तरह से समरूप है। और इसलिए बहुत अधिक सामान्य। एक नेटवर्क जो ऊपर जाता है और इसके सामने एक पूरी तरह से समानांतर नेटवर्क जो नीचे जाता है। और विशेष मामले में जब दोनों का बिल्कुल एक ही ढांचा होता है, तो वास्तव में हर न्यूरॉन के पास दोहरे वेट होते हैं, नीचे और ऊपर की ओर, उनके अपडेट के लिए। यानी इसके बारे में एक नेटवर्क के रूप में सोचा जा सकता है (दोहरी क्रिया), लेकिन शायद मूल्यांकन नेटवर्क को आर्किटेक्चर में स्वायत्तता देना बेहतर है, यानी दो नेटवर्क जो एक दूसरे पर नियंत्रण करते हैं। और यह सब NP के लिए क्या कहता है? यहां सीखने की परिभाषा मूल्यांकनकर्ता और मूल्यांकित, शिक्षक और छात्रों की परतों में विभाजन के रूप में है। और सवाल यह है कि क्या ऐसा विभाजन मौजूद है, या नहीं, समस्या के लिए, जब हर पॉलीनोमियल एल्गोरिथ्म ऐसा विभाजन है। यानी, यह सीखने की एक अलग परिभाषा है उससे जो हमने कंप्यूटर विज्ञान के दर्शन में देखी, और संभवतः यह इन विज्ञानों की मूल समस्या से निपटने के लिए अधिक उपयुक्त है। और मैं, अपने जीवन के उस चरण को पार कर चुका हूं जहां मैं इन विचारों को औपचारिक बनाने में सक्षम हूं - लेकिन शायद आप सक्षम होंगी।