
अब केवल आलसी
कृत्रिम बुद्धि के बारे में नहीं बोलता है और न ही लिखता है। लेकिन हमारे समय में, एआई फिल्म टर्मिनेटर से स्काईनेट नहीं है। अब तक, वैज्ञानिक कृत्रिम बुद्धि के कमजोर रूप से निपट रहे हैं। ज्यादातर मामलों में, ये कुछ समस्याओं को हल करने के लिए डिज़ाइन किए गए अपेक्षाकृत जटिल तंत्रिका नेटवर्क हैं।
हमारे समय के कई प्रमुख लोग एआई के मजबूत रूप की उपस्थिति की संभावना के बारे में चिंतित हैं। कुछ विशेषज्ञों के अनुसार, एक "सोच कंप्यूटर" एक व्यक्ति, उसके दुश्मन का एक विरोधी प्रतिद्वंद्वी बन सकता है। या भविष्य का AI इंसानों के प्रति उदासीन होते हुए अपने कुछ लक्ष्यों को पूरा करेगा। इस मामले में, कृत्रिम बुद्धि पूरे शहरों या देशों को तबाह कर देगी जब इस तरह की आवश्यकता होगी। प्रौद्योगिकी के विकास के लिए एक समान परिदृश्य दिखाने के लिए, कैम्ब्रिज के वैज्ञानिकों ने खेल "सभ्यता" के लिए
एक आधुनिक तकनीक
विकसित की है , जिसका पांचवा हिस्सा है।
इस परिशिष्ट में, आप देख सकते हैं कि पूर्व निर्धारित सुरक्षा उपायों के बिना एआई के मजबूत रूप की स्थिति में क्या हो सकता है। वैज्ञानिकों ने अचानक इस मॉड का विकास नहीं किया। एक्ज़िस्टेंशियल रिस्क ऑफ स्टडीज (CSER) के लिए कैम्ब्रिज विश्वविद्यालय के विशेषज्ञ यह समझने की कोशिश कर रहे हैं कि हमारी आधुनिक दुनिया निकट या दूर के भविष्य में मनुष्यों के लिए एक खतरनाक खतरा बन सकती है।
समूह को 2012 में स्थापित किया गया था, और इसका मूल लक्ष्य आज यह था - मनुष्यों पर विभिन्न प्रकार के वैश्विक आपदाओं के प्रभाव का अध्ययन करना। केवल वे समस्याएं जो संभावित रूप से मानव जाति के विनाश का कारण बन सकती हैं - सभ्यता अपने वर्तमान रूप में या सामान्य रूप से पृथ्वी पर सभी लोगों को माना जाता है। बेशक, ये तबाही न केवल कृत्रिम बुद्धिमत्ता के प्रभाव के कारण हो सकती है, इसका कारण खतरनाक बीमारी, जलवायु परिवर्तन और बहुत कुछ के आनुवंशिक रूप से संशोधित प्रेरक एजेंट में हो सकता है।
डेवलपर्स के अनुसार, खेल के अलावा, सभ्यता के अलावा, आंशिक रूप से एक शैक्षिक, आंशिक रूप से एक अनुसंधान परियोजना है। परियोजना के प्रतिभागियों में से एक, शाहर ईविन कहते हैं, "मुख्य उद्देश्य जो हमने इरादा किया है वह वास्तविक कंप्यूटर खुफिया के विकास के लिए एक संभावित परिदृश्य को प्रदर्शित करना है, ताकि इस तरह की खुफिया जानकारी हम लोगों के लिए पैदा हो सके।"
खेल आईबीएम के डीप ब्लू कंप्यूटर को भी दिखाता है, जो खिलाड़ियों को एआई अनुसंधान में तेजी लाने में मदद करता है।वैसे, इसके अलावा सभ्यता में जीत के परिदृश्यों में से एक को प्रतिस्थापित करता है, एक मजबूत कृत्रिम बुद्धि के विकास के द्वारा अल्फा सेंटॉरी के स्टार को एक अंतरिक्ष यान का प्रक्षेपण। फैशन में नई इमारतें (अनुसंधान प्रयोगशालाएं), एक नया चमत्कार (वही डीप ब्लू) और एक नया तंत्र है, जिसे एआई-डेंजर कहा जाता था।
जैसे ही खिलाड़ी एआई के अध्ययन के लिए कार्यक्रम
शुरू करता है , एक टाइमर प्रकट होता है, जिसे "एआई खतरा" कहा जाता है। यदि टाइमर उलटी गिनती के अंत तक पहुंचता है, तो खिलाड़ी को एक संदेश मिलता है कि दुनिया में कहीं न कहीं कृत्रिम बुद्धिमत्ता का एक मजबूत रूप तैयार किया गया है और गेम गेमर की हार के साथ समाप्त होता है। “यह सब वास्तविक जीवन की तरह है। आप कहते हैं कि सभ्यता के विकास में आप बहुत आगे बढ़ सकते हैं, लेकिन अगर आप बिना किसी सावधानी के बनाई गई तकनीकों का प्रबंधन करते हैं, तो आप सब कुछ खो देते हैं।
अंत में हार के साथ नकारात्मक विकास परिदृश्य से बचने के लिए, खिलाड़ी के पास एआई के क्षेत्र में अधिक वैज्ञानिक अनुसंधान करने का अवसर है। इस तरह की परियोजनाओं को अधिक से अधिक किया जाता है, टिक टाइमर को धीमा कर देता है। जीतने के लिए, खिलाड़ी को एआई नियंत्रण प्रौद्योगिकियों को विकसित करने, और पड़ोसी देशों में परियोजनाओं और बड़े शहरों के अधिकारियों में निवेश करने की आवश्यकता होती है। "यदि आप एक AI परिदृश्य चुनते हैं, तो आपको अधिक सुरक्षा विकास की आवश्यकता है। इस क्षेत्र में निवेश हमेशा एक स्पष्ट आवश्यकता नहीं है, लेकिन इसे करने की आवश्यकता है, ”एविन ने कहा।

बेशक, "सभ्यता" को एक गंभीर शोध उपकरण नहीं कहा जा सकता है, लेकिन इसके अलावा न केवल आम खिलाड़ियों के लिए, बल्कि वैज्ञानिकों के लिए भी एआई के विकास के लिए सतर्क दृष्टिकोण की आवश्यकता का एहसास संभव है। जोखिम बहुत स्पष्ट रूप से दिखाए जाते हैं। और स्थिति काफी यथार्थवादी है - खिलाड़ी को आक्रामक पड़ोसियों से निपटने की आवश्यकता होती है, कहता है कि कम या ज्यादा एक ही शोध का संचालन करें। यदि पार्टियों में से एक सफल होता है, लेकिन सावधानी के कारण व्यायाम नहीं करता है, तो हार अनिवार्य है।
दरअसल, वैश्विक खतरों का सामना करने के लिए, वैश्विक संपर्क की आवश्यकता है। यहां सब कुछ सही तरीके से दिखाया गया है।