आर्टिफिशियल इंटेलिजेंस पर एलोन मस्क फंड रिसर्च ग्रुप सुरक्षित है

छवि
फिल्म टर्मिनेटर के लिए प्रचार पोस्टर: उत्पत्ति

पिछले हफ्ते,बोस्टन, यूएसए में स्थितनिजी गैर-लाभकारी संगठन फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) ने घोषणा की कि उसे $ 10 मिलियन के वित्तपोषण का एक महत्वपूर्ण दौर मिला। 7 मिलियन डॉलर के दान का मुख्य हिस्सा एलोन मस्क द्वारा बनाया गया था, बाकी का पैसा एक अन्य गैर-लाभकारी संगठन, ओपन परोपकार परियोजना द्वारा स्थानांतरित किया गया थाFLI का मुख्य व्यवसाय विशिष्ट अनुसंधान समूहों को खोजना है जो कृत्रिम बुद्धिमत्ता के क्षेत्र में काम करते हैं, और उनका वित्तपोषण करते हैं। एफएलआई से अनुदान प्राप्त करने वाले वैज्ञानिकों के लिए निर्धारित लक्ष्यों में से एक "कंप्यूटर दिमाग" विकसित करना है जो मानवता के लिए सुरक्षित है, जिससे भविष्य में वैश्विक तबाही नहीं होगी।

स्पेसएक्स और ओपन परोपकार परियोजना समूह के प्रमुख से लाखों डॉलर को 37 अनुसंधान समूहों के बीच विभाजित किया जाएगा जो प्रसिद्ध विश्वविद्यालयों में काम करते हैं और खुद को साबित कर चुके हैं। BusinessInsider सूचियांइन विज्ञान परियोजनाओं में से कुछ। उदाहरण के लिए, बर्कले और ओकफोर्ड विश्वविद्यालयों के वैज्ञानिकों का एक संयुक्त समूह मानव प्राथमिकताओं में प्रशिक्षित एल्गोरिदम के निर्माण में लगा हुआ है, जो भविष्य में कृत्रिम बुद्धिमत्ता को "एक इंसान की तरह" व्यवहार करने में मदद करेगा। ड्यूक विश्वविद्यालय के कर्मचारियों (यूएसए, उत्तरी कैरोलिना) ने एक और महत्वाकांक्षी लक्ष्य निर्धारित किया है: वे एक कृत्रिम खुफिया प्रणाली विकसित करना चाहते हैं जो "मानव नैतिकता" के आधार पर निर्णय ले सके। डेनवर विश्वविद्यालय में, वे वास्तव में स्काईनेट का मुकाबला करने के तरीकों पर काम कर रहे हैं, रोबोट हथियारों पर नियंत्रण के संभावित नुकसान से निपट रहे हैं।

पिछले साल नवंबर के अंत में, एलोन मस्क ने नोट कियाकृत्रिम बुद्धिमत्ता की सुरक्षा के बारे में इंटरनेट पर सार्वजनिक चर्चा में। स्पेसएक्स के प्रमुख के शब्दों को देखते हुए, वह कंप्यूटर की सोचने की क्षमता से सावधान है और "5-10 साल के भीतर कुछ बहुत खतरनाक" के उद्भव की भविष्यवाणी करता है, जिसका अर्थ है एआई एक खतरे के रूप में। किसी अज्ञात कारण से, मास्क की टिप्पणी प्रकाशन के कुछ ही मिनट बाद गायब हो गई, लेकिन अन्य Edge.org उपयोगकर्ता इसे स्क्रीनशॉट के रूप में सहेजने में सफल रहे। मास्क के प्रवक्ता ने भविष्य में इस मुद्दे पर अपने मालिक की आधिकारिक राय प्रस्तुत करने का वादा किया, लेकिन यह, जाहिरा तौर पर, अभी तक नहीं हुआ है।

यह ध्यान दिया जाना चाहिए कि मस्क वास्तव में प्रसिद्ध ब्रिटिश वैज्ञानिक स्टीफन हॉकिंग की राय का पालन करते हैं, जिन्होंने पहले भी बात की थीइस प्रकार है: "ये सभी उपलब्धियाँ [कृत्रिम बुद्धिमत्ता के विकास में] आने वाले दशकों में हमारी प्रतीक्षा करती है। कृत्रिम बुद्धिमत्ता का सफल निर्माण मानव जाति के इतिहास की सबसे बड़ी घटना होगी। दुर्भाग्य से, यह अंतिम हो सकता है अगर हम जोखिम से बचने के लिए नहीं सीखते हैं। ” हॉकिंग का मानना ​​है कि एआई की सुरक्षा के अध्ययन के लिए समर्पित कुछ गंभीर वैज्ञानिक कार्य हैं, और बहुत कम वैज्ञानिक संगठन हैं जो ऐसा कर सकते हैं। दिलचस्प बात यह है कि हॉकिंग ने ऐसे संगठनों के बीच एफएलआई का उल्लेख किया था। स्टीफन हॉकिंग और एलोन मस्क के बीच कोई संबंध है या नहीं, यह अज्ञात है।

वैज्ञानिकों का एक वैकल्पिक दृष्टिकोण है, हालांकि, प्रोफेसर हॉकिंग जैसे बड़े नाम के साथ नहीं। उनका मानना ​​है कि कृत्रिम बुद्धिमत्ता को नियंत्रण से बाहर करने का मुद्दा गंभीर चिंताओं के बजाय विज्ञान कथा फिल्मों के लिए अधिक विषय है। उनके प्रतिवाद यहाँ पढ़ें

Source: https://habr.com/ru/post/hi381497/


All Articles