إيلون ماسك يمول مجموعات البحث حول الذكاء الاصطناعي آمنة
ملصق ترويجي لالمنهي الفيلم: سفر التكوينالأسبوع الماضي، وهي منظمة غير هادفة للربح الخاص معهد مستقبل الحياة (FLI)، ومقرها في بوسطن، الولايات المتحدة الأمريكية، أعلنت أنها تلقت جولة كبيرة من التمويل 10 مليون $. الجزء الرئيسي من التبرع بـ 7 ملايين دولار قدمه Elon Musk ، وتم تحويل المبلغ المتبقي من قبل منظمة غير ربحية أخرى ، المشروع المفتوح للأعمال الخيرية. المهنة الرئيسية لـ FLI هي إيجاد مجموعات بحثية متخصصة تعمل في مجال الذكاء الاصطناعي وتمويلها. أحد الأهداف المحددة للعلماء الذين يتلقون منحًا من FLI هو تطوير "عقل كمبيوتر" آمن للبشرية ، والذي لن يؤدي إلى كارثة عالمية في المستقبل.سيتم تقسيم ملايين الدولارات من رئيس SpaceX ومجموعة مشروع Open Philanthropy Project بين 37 مجموعة بحثية تعمل في جامعات معروفة وأثبتت نفسها. قوائم BusinessInsiderبعض هذه المشاريع العلمية. على سبيل المثال ، تشارك مجموعة مشتركة من العلماء من جامعتي بيركلي وأوكفورد في إنشاء خوارزميات مدربة على التفضيلات البشرية ، والتي من شأنها في المستقبل أن تساعد الذكاء الاصطناعي على التصرف "مثل الإنسان". حدد موظفو جامعة ديوك (الولايات المتحدة الأمريكية ، نورث كارولينا) هدفًا أكثر طموحًا: فهم يريدون تطوير نظام ذكاء اصطناعي يمكنه اتخاذ قرارات تستند إلى "الأخلاق الإنسانية". في جامعة دنفر ، يعملون في الواقع على طرق لمواجهة Skynet ، والتعامل مع احتمال فقدان السيطرة على الأسلحة الآلية. وأشارإيلون موسك في نهاية نوفمبر من العام الماضيفي نقاش عام على الإنترنت حول سلامة الذكاء الاصطناعي. إذا حكمنا من خلال كلمات رئيس SpaceX ، فإنه يشعر بالقلق من قدرة أجهزة الكمبيوتر على التفكير ويتنبأ ظهور "شيء خطير جدًا في غضون 5-10 سنوات" ، بمعنى أن الذكاء الاصطناعي مجرد خطر. لسبب غير معروف ، اختفى تعليق Mask بعد بضع دقائق من النشر ، لكن مستخدمي Edge.org الآخرين تمكنوا من حفظه كصورة شاشة. وعد المتحدث باسم القناع في المستقبل بتقديم الرأي الرسمي لرئيسه حول هذه المسألة ، ولكن هذا ، على ما يبدو ، لم يحدث بعد.وتجدر الإشارة إلى أن المسك يلتزم في الواقع برأي العالم البريطاني الشهير ستيفين هوكينج ، الذي تحدث في وقت سابقكما يلي: "كل هذه الإنجازات [في تطوير الذكاء الاصطناعي] تتلاشى على خلفية ما ينتظرنا في العقود المقبلة. سيكون الابتكار الناجح للذكاء الاصطناعي أكبر حدث في تاريخ البشرية. لسوء الحظ ، قد تكون الأخيرة إذا لم نتعلم تجنب المخاطر ". يعتقد هوكينج أن هناك القليل من الأعمال العلمية الجادة المخصصة لدراسة سلامة الذكاء الاصطناعي ، وهناك عدد قليل جدًا من المنظمات العلمية التي يمكنها القيام بذلك. ومن المثير للاهتمام ، ذكر هوكينج FLI من بين هذه المنظمات. ما إذا كان هناك أي اتصال بين ستيفين هوكينج وإيلون موسك غير معروف بشكل موثوق.ومع ذلك ، هناك وجهة نظر بديلة من العلماء ، ولكن ليس باسم كبير مثل البروفيسور هوكينج. يعتقدون أن قضية إخراج الذكاء الاصطناعي من السيطرة هي موضوع لأفلام الخيال العلمي أكثر من كونها مخاوف جدية. اقرأ حججهم المضادة هنا .Source: https://habr.com/ru/post/ar381497/
All Articles