वास्तविक दुनिया में आत्म-सीखने वाले एआई को समस्या क्यों है?



नवीनतम सेल्फ लर्निंग आर्टिफिशियल इंटेलिजेंस सिस्टम स्क्रैच से एक खेल सीख सकते हैं और विश्व स्तरीय चैंपियन बन सकते हैं। कुछ समय पहले तक, जो मशीनें चैंपियन को हरा सकती थीं, उन्होंने मानव अनुभव का अध्ययन करके अपनी पढ़ाई शुरू की। 1997 में गैरी कास्परोव को हराने के लिए, आईबीएम के इंजीनियरों ने डीप ब्लू को मानवता के शतरंज के प्रति सदियों से संचित जानकारी पर अपलोड किया। 2016 में, Google DeepMind में बनाई गई अल्फा गो आर्टिफिशियल इंटेलिजेंस ने प्राचीन गो बोर्ड गेम में चैंपियन ली सेडोला को पीछे छोड़ दिया , जो पहले लोगों द्वारा खेले गए दसियों हजारों खेलों से लाखों पदों का अध्ययन कर चुके थे। लेकिन अब, एआई डेवलपर्स इलेक्ट्रॉनिक दिमाग में मानव ज्ञान को शामिल करने के दृष्टिकोण पर पुनर्विचार कर रहे हैं। वर्तमान प्रवृत्ति: इससे परेशान न हों।

अक्टूबर 2017 में, दीपमाइंड की टीम ने गो - अल्फा गो जीरो के लिए एक नई प्रणाली के बारे में जानकारी प्रकाशित की। वह लोगों द्वारा खेली जाने वाली पार्टियों का अध्ययन नहीं करती थी। इसके बजाय, उसने नियम सीखे और खुद के साथ खेलना शुरू किया। पहले कदम पूरी तरह से यादृच्छिक थे। प्रत्येक गेम के बाद, सिस्टम ने विश्लेषण किया कि जीत या हार का कारण क्या है। थोड़ी देर बाद, अल्फ़ागो ज़ीरो ने पंप विजेता ली सेडोला - अल्फ़ागो के साथ खेलना शुरू किया। और उसने उसे 100: 0 के स्कोर से हराया।


ली सेडोल, 2016 में अल्फा के साथ एक मैच के दौरान, गो के खेल में 18-बार विश्व चैंपियन।

तब शोधकर्ताओं ने एक ऐसी प्रणाली बनाई जो अल्फ़ाज़ो परिवार - अल्फ़ाज़ेरो में सबसे मजबूत खिलाड़ी बन गई। दिसंबर में प्रकाशित एक पेपर में, डीपमाइंड डेवलपर्स ने बताया कि अल्फ़ाज़ेरो, जिसने स्क्रैच से सीखना भी शुरू कर दिया था, ने अल्फ़ागो ज़ीरो को पीछे छोड़ दिया - अर्थात, इसने उस बॉट को हरा दिया जिसने बॉट को हरा दिया जिसने दुनिया के सबसे अच्छे खिलाड़ी को हराया। और जब उसे शतरंज के नियम खिलाए गए, साथ ही इस खेल के जापानी संस्करण - शोगी , अल्फाज़ेरो ने जल्दी से इन खेलों में सबसे शक्तिशाली एल्गोरिदम को हराने की सीख दी। खेल की आक्रामक, असामान्य शैली से विशेषज्ञ आश्चर्यचकित थे। जैसा कि डैनिश ग्रैंडमास्टर पीटर हाइन नीलसन ने उल्लेख किया था : “मुझे हमेशा यह जानने में दिलचस्पी थी कि अगर सुपरनोट्रल पृथ्वी पर उड़ान भरता है और हमें दिखाएगा कि वे शतरंज कैसे खेल सकते हैं। अब मुझे पता है। ”

पिछले साल, हमने असीमित पोकर और Dota 2 जैसे विविध क्षेत्रों में अन्य स्व-सीखने वाले बॉट्स के आगमन को देखा।

यह स्पष्ट है कि इन और समान प्रणालियों में निवेश करने वाली कंपनियों में गेम चैंपियनशिप पर हावी होने की तुलना में बहुत अधिक महत्वाकांक्षी योजनाएं हैं। शोधकर्ताओं को वास्तविक समस्याओं को हल करने के लिए इसी तरह के तरीकों का उपयोग करने की उम्मीद है, जैसे कि कमरे के तापमान पर सुपरकंडक्टर्स का निर्माण करना, या शक्तिशाली दवाओं के अणुओं में प्रोटीन बिछाने के लिए ओरिगामी सिद्धांतों का उपयोग करना। और, ज़ाहिर है, कई चिकित्सकों को एक सामान्य-उद्देश्य एआई बनाने की उम्मीद है - लक्ष्य अस्पष्ट है, लेकिन रोमांचक है, जिसका अर्थ है कि मशीन एक व्यक्ति की तरह सोचने और विभिन्न समस्याओं को हल करने में सक्षम होगी।

लेकिन ऐसी प्रणालियों में बलों और साधनों के बड़े निवेश के बावजूद, यह स्पष्ट नहीं है कि वे खेलों के क्षेत्र से कितनी दूर निकल सकते हैं।

अपूर्ण दुनिया के लिए आदर्श लक्ष्य


शतरंज और गो सहित कई खेल इस तथ्य से एकजुट हैं कि खिलाड़ी हमेशा पूरे खेल के मैदान पर ही देखते हैं। किसी भी समय प्रत्येक खिलाड़ी को खेल की स्थिति के बारे में "पूरी जानकारी" होती है। लेकिन खेल जितना कठिन है, उतना ही आपको वर्तमान समय से आगे सोचने की जरूरत है। वास्तव में, यह आमतौर पर मामला नहीं है। कल्पना करें कि आपने कंप्यूटर से निदान करने के लिए कहा है या व्यावसायिक वार्ता आयोजित की है। नोअम ब्राउन , कार्नेगी मेलन विश्वविद्यालय में कंप्यूटर विज्ञान विभाग में स्नातक छात्र: "अधिकांश वास्तविक रणनीतिक रिश्ते छिपी जानकारी का उपयोग करते हैं। मुझे लगता है कि एआई समुदाय के कई प्रतिभागी इस परिस्थिति को नजरअंदाज करते हैं। ”

ब्राउन पोकर गेम एल्गोरिदम विकसित करने में माहिर हैं, और इस खेल में अन्य कठिनाइयाँ हैं: आप अपने प्रतिद्वंद्वियों के कार्ड नहीं देखते हैं। लेकिन यहां, मशीनें जो स्वतंत्र रूप से खेलना सीखती हैं, वे पहले से ही आसमानी ऊंचाइयों तक पहुंचती हैं। जनवरी 2017 में, ब्राउन और टुमास सैंडहोम द्वारा निर्मित लाइब्रेटस नामक एक कार्यक्रम ने असीमित टेक्सास होल्डम में चार पेशेवर खिलाड़ियों में से एक को हराया । 20-दिवसीय टूर्नामेंट के अंत में, बॉट ने अपने प्रतिद्वंद्वियों की तुलना में $ 1.7 मिलियन अधिक प्राप्त किए।

StarCraft II की मल्टीप्लेयर रणनीति एक और भी अधिक प्रभावशाली खेल है, जो मौजूदा स्थिति के बारे में जानकारी के अधूरे कब्जे को रोकती है। इधर, AI अभी तक ओलंपस में नहीं पहुंचा है। यह खेल में बड़ी संख्या में चालों द्वारा लगाया जाता है, जिसे अक्सर हजारों में मापा जाता है, और उनके निष्पादन की उच्च गति। प्रत्येक खिलाड़ी - एक व्यक्ति या एक मशीन - प्रत्येक क्लिक के साथ आगे के घटनाक्रम की असीमित विविधता के बारे में सोचने की जरूरत है।

अब तक, AI समान शर्तों पर सर्वश्रेष्ठ खिलाड़ियों के साथ प्रतिस्पर्धा नहीं कर सकता है। लेकिन डेवलपर्स इसके लिए प्रयास कर रहे हैं। अगस्त 2017 में, DeepMind ने Blizzard Entertainment (जिसने StarCraft II बनाया) के समर्थन को ऐसे उपकरण बनाने में शामिल किया, जो विज्ञापन शोधकर्ताओं को चाहिए।

गेमप्ले की कठिनाई के बावजूद, StarCraft II का सार दुश्मनों को नष्ट करने के लिए: एक सरल कार्य के लिए नीचे आता है। शतरंज, गो, पोकर, डोटा 2 और लगभग किसी अन्य खेल के बारे में भी यही कहा जा सकता है। और खेलों में आप जीत सकते हैं।

एल्गोरिथ्म के दृष्टिकोण से, कार्य में एक "लक्ष्य फ़ंक्शन" होना चाहिए, जिसे ढूंढना होगा। यह बहुत कठिन नहीं था जब अल्फाज़ो शतरंज खेल रहा था। हार को -1, ड्रा - 0, जीत - +1 के रूप में गिना जाता है। अल्फ़ाज़ेरो का उद्देश्य समारोह अधिकतम अंक अर्जित करना था। पोकर बॉट के लिए उद्देश्य फ़ंक्शन भी सरल है: बहुत सारे पैसे जीतें।


एल्गोरिथ्म जटिल व्यवहार सीखता है - एक अपरिचित सतह पर चलना।

जीवन में, सब कुछ इतना स्पष्ट नहीं है। उदाहरण के लिए, एक मानवरहित वाहन को अधिक विशिष्ट उद्देश्य फ़ंक्शन की आवश्यकता होती है। उसकी इच्छा के सतर्क बयान जैसा कुछ, जो जिन्न को समझाता है। उदाहरण के लिए: जल्दी से सही गंतव्य के लिए यात्रियों को वितरित, सभी नियमों का पालन और खतरनाक और अनिश्चित परिस्थितियों में मानव जीवन का ठीक से आकलन। वाशिंगटन विश्वविद्यालय में कंप्यूटर विज्ञान विशेषज्ञ पेड्रो डोमिंगोस : "अन्य बातों के अलावा, एक अद्भुत और साधारण मशीन सीखने वाले शोधकर्ता के बीच का अंतर उस तरह से निहित है जिस तरह से उद्देश्य समारोह तैयार किया जाता है।"

23 मार्च 2016 को Microsoft द्वारा लॉन्च किए गए Tay twitter chatbot के बारे में सोचें। उनका लक्ष्य लोगों को शामिल करना था, और उन्होंने इसे हासिल किया। लेकिन अचानक यह स्पष्ट हो गया कि भागीदारी को अधिकतम करने का सबसे अच्छा तरीका सभी प्रकार के अपमान करना है। बॉट को एक दिन से भी कम समय के बाद बंद कर दिया गया था।

आपका व्यक्तिगत सबसे बड़ा दुश्मन


कुछ अपरिवर्तित रहता है। आधुनिक प्रमुख गेम बॉट द्वारा उपयोग की जाने वाली विधियां दशकों पहले की गई रणनीतियों पर निर्भर करती हैं। अतीत से बस यही अभिवादन, केवल आधुनिक कंप्यूटिंग शक्ति द्वारा समर्थित है।

ये रणनीतियाँ आमतौर पर प्रबलित शिक्षा पर आधारित होती हैं, जो मानवीय हस्तक्षेप के बिना एक पद्धति है। विस्तृत निर्देशों का उपयोग करके एल्गोरिथ्म के सावधानीपूर्वक नियंत्रण के बजाय, इंजीनियर मशीन को पर्यावरण का पता लगाने और परीक्षण और त्रुटि के द्वारा लक्ष्यों को प्राप्त करने की अनुमति देते हैं। अल्फा गो और उसके वंशजों की रिहाई से पहले, 2013 में, डीपमाइंड टीम ने अटारी 2600 के लिए सात गेम खेलने के लिए बॉट को सिखाकर सुदृढीकरण प्रशिक्षण का उपयोग करते हुए एक गंभीर, महत्वपूर्ण परिणाम हासिल किया और उनमें से तीन में - विशेषज्ञ स्तर पर।

वहां नहीं रुकने पर, 5 फरवरी को, डीपमाइंड टीम ने इम्पाला को एक एआई सिस्टम से बाहर कर दिया, जो अटारी 2600 के लिए 57 गेम खेल सकता है, साथ ही साथ दीपमाइंड में बनाए गए एक और 30 त्रि-आयामी स्तर। इन स्तरों पर, खिलाड़ी विभिन्न स्थानों और कमरों से गुजरता है, दरवाजे खोलने और मशरूम लेने जैसी समस्याओं को हल करता है। इसके अलावा, इम्पाला ने कार्यों के बीच संचित अनुभव को स्थानांतरित कर दिया, अर्थात, प्रत्येक सत्र ने खेला अगले सत्र के परिणामों में सुधार हुआ।

लेकिन प्रबलित शिक्षण की व्यापक श्रेणी के भीतर, बोर्ड और मल्टीप्लेयर गेम और भी अधिक विशिष्ट दृष्टिकोण के लिए अनुमति देते हैं। अनुसंधान अपने आप में एक गेम का रूप ले सकता है, जब एल्गोरिथ्म अनुभव प्राप्त करता है, अपनी खुद की प्रतिलिपि के साथ संघर्ष कर रहा है।

यह विचार भी कई वर्षों पुराना है। 1950 के दशक में, IBM के इंजीनियर आर्थर सैमुअल ने एक चेकर प्रोग्राम बनाया, जो अल्फा और बीटा के बीच खेले जाने वाले खेलों में आंशिक रूप से अध्ययन करता था। और 1990 के दशक में, आईबीएम से गेराल्ड टेसारो ने भी एक बैकगैमौन गेम बनाया, जिसने खुद के खिलाफ अपना एल्गोरिदम सेट किया। गैर-मानक, लेकिन प्रभावी रणनीतियों को विकसित करते हुए, बॉट मानव विशेषज्ञ के स्तर तक पहुंच गया।

अपने आप से खेलते समय, प्रत्येक खेल में एल्गोरिथ्म एक समान प्रतियोगी से मिलता है। इसलिए, कॉपी एल्गोरिथ्म की तत्काल प्रतिक्रिया को देखते हुए, रणनीति में बदलाव से विभिन्न परिणाम सामने आते हैं। इल्या सुतकीवर , ओपनएआई में अनुसंधान निदेशक: "हर बार जब आप कुछ नया सीखते हैं, तो आप खेल और पर्यावरण के बारे में सबसे छोटी जानकारी की खोज करते हैं, आपका प्रतिद्वंद्वी तुरंत आपके खिलाफ इसका उपयोग करता है।" अगस्त 2017 में, OpenAI ने Dota 2 के लिए एक बॉट जारी किया, जिसने शैडो फ़ेंड चरित्र को नियंत्रित किया - एक नेक्रोमन्ट दानव की तरह कुछ - और दुनिया के सर्वश्रेष्ठ खिलाड़ियों को झगड़े में हराया। कंपनी का एक और प्रोजेक्ट: दो एल्गोरिदम सूमो पहलवानों को नियंत्रित करते हैं, जो एक दूसरे की कुश्ती तकनीकों से सीखते हैं । और इस तरह के प्रशिक्षण के दौरान स्थिर होना असंभव है, आपको लगातार सुधार करना चाहिए।


डोटा 2 के लिए ओपनएआई में निर्मित बॉट ने कई जटिल रणनीतियों को स्वतंत्र रूप से सीखा।

लेकिन खुद के साथ खेलने का पुराना विचार बॉट्स की आधुनिक श्रेष्ठता के अवयवों में से एक है, जो अभी भी किसी तरह से उनके गेमिंग अनुभव को "पुनर्विचार" करने की आवश्यकता है। शतरंज, गो और वीडियो गेम जैसे डोटा 2 में, संभावित संयोजनों का एक मिश्रण है। यहां तक ​​कि वर्चुअल एरेनास पर अपनी छाया के साथ लड़ाइयों में कई जीवन बिताते हुए, मशीन हर संभव परिदृश्य की गणना करने में सक्षम नहीं होगी ताकि कार्यों की तालिका तैयार की जा सके और जब यह एक समान स्थिति में हो तो इसके साथ जांचें।

अवसरों के एक समुद्र में रहने के लिए, आपको सामान्य करने की आवश्यकता है, सार को समझें। आईबीएम डीप ब्लू एकीकृत शतरंज फॉर्मूले की बदौलत सफल रहा। बोर्ड पर संयोजन का मूल्यांकन करने की क्षमता के साथ सशस्त्र, जो वह पहले कभी नहीं मिला था, कंप्यूटर ने अपनी जीत की संभावना को बढ़ाने के लिए चाल और रणनीति बनाई। लेकिन हाल के वर्षों में दिखाई देने वाली नई तकनीकों ने सूत्रों को छोड़ना संभव बना दिया है।

डीप न्यूरल नेटवर्क अधिक से अधिक लोकप्रियता हासिल कर रहे हैं। वे कृत्रिम "न्यूरॉन्स" की परतों से मिलकर बने होते हैं, जैसे एक ढेर में पेनकेक्स। जब एक परत में न्यूरॉन्स को ट्रिगर किया जाता है, तो वे अगली परत को संकेत भेजते हैं, यह अगले को भेजता है, और इसी तरह। परतों के बीच कनेक्शन को समायोजित करके, ऐसे तंत्रिका नेटवर्क शानदार परिणाम प्राप्त करते हैं, इनपुट डेटा को किसी प्रकार के परस्पर परिणाम में परिवर्तित करते हैं, भले ही कनेक्शन सार लगता हो। मान लीजिए कि एक तंत्रिका नेटवर्क को अंग्रेजी में एक वाक्यांश दिया जा सकता है, और वह इसे तुर्की में अनुवाद करेगा। या आप एक पशु आश्रय से उसकी तस्वीरें दे सकते हैं, और तंत्रिका नेटवर्क उन चित्रों को पाएंगे जो बिल्लियों को चित्रित करते हैं। या आप बोर्ड गेम के नियमों को एक गहरे तंत्रिका नेटवर्क में दिखा सकते हैं, और यह इसकी जीत की संभावना की गणना करेगा। लेकिन पहले, जैसा कि आप समझते हैं, तंत्रिका नेटवर्क को लेबल किए गए डेटा के नमूने से सीखना चाहिए।

तंत्रिका नेटवर्क खुद और गहरे तंत्रिका नेटवर्क के साथ एक दूसरे के साथ अच्छी तरह से पूरक हैं। खुद के नेटवर्क के साथ गेमिंग गेम के बारे में जानकारी का एक प्रवाह उत्पन्न करता है, गहन नेटवर्क के लिए प्रशिक्षण के लिए डेटा का सैद्धांतिक रूप से अंतहीन स्रोत है। बदले में, गहरे नेटवर्क खुद को नेटवर्क के साथ खेलने के द्वारा प्राप्त अनुभव और पैटर्न को अवशोषित करने का एक तरीका प्रदान करते हैं।

लेकिन एक तरकीब है। उन प्रणालियों के लिए जो उपयोगी डेटा उत्पन्न करने के लिए खुद से खेलते हैं, उन्हें खेलने के लिए एक यथार्थवादी जगह की आवश्यकता होती है।

सभी खेल खेले जाते हैं, सभी ऊंचाइयों को उन वातावरणों में प्राप्त किया जाता है जहां आप दुनिया को आत्मविश्वास की डिग्री के साथ अनुकरण कर सकते हैं। और अन्य क्षेत्रों में प्रभावशाली परिणाम प्राप्त करना इतना आसान नहीं है।

उदाहरण के लिए, मानवरहित वाहनों को खराब मौसम में सवारी करना मुश्किल होता है, और सड़क पर साइकिल चलाने वालों को बहुत बाधा पहुँचती है। इसके अलावा, ड्रोन गलत तरीके से एक गैर-मानक, लेकिन वास्तविक स्थिति का मूल्यांकन कर सकते हैं, जैसे कि एक पक्षी सीधे कार के कैमरे में उड़ता है। या एआई का कम विदेशी उपयोग करें - एक रोबोटिक आर्म-मैनिपुलेटर। सबसे पहले, उसे शारीरिक क्रियाओं की बुनियादी बातों को सिखाया जाना चाहिए ताकि हाथ कम से कम यह समझ सके कि इसे कैसे सीखना है। लेकिन एक ही समय में, वह विभिन्न सतहों और वस्तुओं को छूने की ख़ासियत को नहीं जानती है, इसलिए मशीन को बोतल से ढक्कन को हटाने या शल्य प्रक्रिया करने जैसी समस्याओं को हल करने के लिए अभ्यास करने की आवश्यकता है।

योशुआ बेंगियो , मॉन्ट्रियल विश्वविद्यालय के डीप लर्निंग विशेषज्ञ: "एक कठिन-अनुकरणीय स्थिति में," खुद के साथ खेलना "सीखने का मॉडल बहुत उपयोगी नहीं है। "पर्यावरण के वास्तव में आदर्श मॉडल और सीखा मॉडल के बीच बहुत बड़ा अंतर है," त्रस्त, "विशेष रूप से अगर पर्यावरण जटिल है।"

खेलों के बाद जीवन


खेलों में एआई की श्रेष्ठता शुरू होने पर यह कहना मुश्किल है। आप कास्परोव को खोने या ली सेडोला को हराने का विकल्प चुन सकते हैं। अक्सर 2011 से उलटी गिनती होती है, टेलीविज़न गेम के चैंपियन केन जेनिंग्स की हार के साथ ! , आईबीएम वाटसन के साथ दो दिवसीय प्रतिद्वंद्विता में। मशीन शब्दांकन और वाक्य को समझने में सक्षम थी। डेवलपर्स ने वाटसन को हमारे द्वारा निहित पाठ को संसाधित करने की क्षमता के साथ संपन्न किया है। कंप्यूटर एक शब्द के लिए एक अंग्रेजी-भाषा वाक्यांश-संकेत ले सकता है, जिसमें महान गति दृश्य प्रासंगिक दस्तावेज, जानकारी के टुकड़े को हाइलाइट करें और सबसे अच्छा उत्तर चुनें।

लेकिन इन वर्षों में, "साधारण" जीवन कार्य अभी भी एआई के लिए उत्तरदायी नहीं हैं। सितंबर 2017 में, एक रिपोर्ट प्रकाशित की गई थी , जिसके अनुसार वॉटसन ऑन ऑन्कोलॉजी परियोजना के हिस्से के रूप में व्यक्तिगत कैंसर उपचार विधियों के अनुसंधान और विकास में बड़ी मुश्किलें थीं। कंप्यूटर बहुत मुश्किल है कि सवालों के अर्थ को समझना मुश्किल हो जाए! चिकित्सा लेख का सार समझने की तुलना में।

हालांकि, ऐसे कई वास्तविक कार्य हैं जो खेल के रूप में अत्यधिक विशिष्ट हैं। अफवाह यह है कि डीपमाइंड टीम बायोमेडिकल प्रोटीन फोल्डिंग रिसर्च में उपयोग के लिए अल्फाज़ेरो को अपनाने पर काम कर रही है। इसके लिए, डेवलपर्स को यह समझना होगा कि प्रोटीन बनाने वाले अमीनो एसिड को छोटे त्रि-आयामी संरचनाओं में कैसे बदला जा सकता है, जिनके कार्य आकार पर निर्भर करते हैं। यह शतरंज के खेल जितना कठिन है: केमिस्ट कुछ सिद्धांतों के बारे में जानते हैं जो कुछ परिदृश्यों की गणना करने की अनुमति देते हैं, लेकिन संभव तीन-आयामी कॉन्फ़िगरेशन की बहुतायत इतनी महान है कि उन सभी का अध्ययन करने के लिए बस यथार्थवादी नहीं है। लेकिन क्या होगा अगर आप प्रोटीन को एक गेम में बदल देंगे? जो उन्होंने पहले ही कर लिया है। 2008 के बाद से, सैकड़ों हजारों खिलाड़ियों ने ऑनलाइन गेम फोल्डिट पर अपना हाथ आजमाया , जिसमें बनाए गए प्रोटीन संरचनाओं की स्थिरता और व्यवहार्यता के लिए अंक दिए गए थे। एक मशीन उसी तरह से खुद को प्रशिक्षित कर सकती है, उदाहरण के लिए, सुदृढीकरण प्रशिक्षण के माध्यम से, मानव खिलाड़ियों के सर्वोत्तम परिणामों को पार करने की कोशिश करना।

सुदृढीकरण सीखने और आत्म-खेल भी इंटरैक्टिव सिस्टम को प्रशिक्षित करने में मदद कर सकते हैं। तब रोबोट लोगों से बात करने में सक्षम होंगे, पहले खुद से बात करना सीखेंगे। और एआई के लिए विशेष उपकरणों की उत्पादकता और उपलब्धता में वृद्धि को देखते हुए, इंजीनियरों को एक खेल के रूप में अधिक से अधिक वास्तविक कार्यों का अनुवाद करने के लिए एक प्रोत्साहन प्राप्त होगा। यह संभावना है कि भविष्य में "अपने आप के साथ खेल" पद्धति का महत्व और विशाल कंप्यूटिंग शक्ति की आवश्यकता वाले अन्य दृष्टिकोणों में केवल वृद्धि होगी।

लेकिन अगर हमारा मुख्य लक्ष्य एक ऐसी मशीन का निर्माण करना है जो लोग, और एक स्वयं-सीखने की मशीन के रूप में कर सकते हैं, तो अल्फ़ाज़ेरो जैसे बोर्ड गेम के चैंपियन के पास संभावित विकास पथ होंगे। वास्तविक मानसिक गतिविधि, विचारों की रचनात्मक समझ और जो हम आज एआई के क्षेत्र में देखते हैं, के बीच अंतर को महसूस करना आवश्यक है। कृत्रिम बुद्धिमत्ता की वह उज्ज्वल छवि मौजूद है, अधिकांश भाग के लिए, महान शोधकर्ताओं के दिमाग में।

कई वैज्ञानिक जो प्रचार के स्तर से अवगत हैं, वे अपने स्वयं के वर्गीकरण की पेशकश करते हैं। सामान्य रूप से एआई के विकास के लिए बॉट्स गेम खेलने के महत्व को कम करने की आवश्यकता नहीं है। उदाहरण के लिए, लोग खेलने में बहुत अच्छे नहीं हैं। लेकिन दूसरी ओर, कुछ कार्यों में बहुत सरल, विशेष उपकरण महान ऊंचाइयों तक पहुंच सकते हैं।

Source: https://habr.com/ru/post/hi411761/


All Articles