أصبحت مهتمًا بالمخاطر المرتبطة بالذكاء الاصطناعي في عام 2007. في ذلك الوقت ، كان رد فعل معظم الناس على هذا الموضوع شيئًا من هذا القبيل: "إنه أمر مضحك للغاية ، عد عندما يؤمن به شخص آخر غير البلداء."
في السنوات التالية ، شارك العديد من الشخصيات الذكية والمؤثرة للغاية ، بما في ذلك
بيل جيتس وستيفن هوكينج وإيلون موسك ، مخاوفهم علنًا بشأن مخاطر الذكاء الاصطناعي ، متبوعًا بمئات المثقفين الآخرين ، من فلاسفة أكسفورد إلى علماء الكونيات من معهد ماساتشوستس للتكنولوجيا والمستثمرين من وادي السليكون . وقد عدنا.
ثم تغير رد الفعل إلى: "حسنًا ، يمكن لبعض العلماء ورجال الأعمال أن يؤمنوا به ، ولكن من غير المحتمل أن يكونوا خبراء حقيقيين في هذا المجال على دراية كبيرة بالوضع".
من هنا جاءت عبارات مثل مقال العلوم الشعبية "
بيل جيتس خائف من الذكاء الاصطناعي ، ولكن يجب أن يعرف باحثو الذكاء الاصطناعي ":
بعد التحدث مع باحثين في مجال الذكاء الاصطناعي - باحثون حقيقيون ، بالكاد يجعلون هذه الأنظمة تعمل على الإطلاق ، ناهيك عن العمل بشكل جيد ، يصبح من الواضح أنهم ليسوا خائفين من أن الذكاء الفائق سوف يزحف إليهم فجأة ، ليس الآن ولا في المستقبل . على الرغم من كل القصص المخيفة التي يرويها Mask ، فإن الباحثين ليسوا في عجلة من أمرهم لبناء غرف واقية وتدمير ذاتي من خلال العد التنازلي.
أو ، كما كتبوا على Fusion.net في مقالة "
اعتراض على الروبوتات القاتلة من شخص يقوم بالفعل بتطوير الذكاء الاصطناعي ":
يقوم أندرو أنجي بتطوير أنظمة الذكاء الاصطناعي باحتراف. قام بتدريس دورة الذكاء الاصطناعي في ستانفورد ، وطور الذكاء الاصطناعي على Google ، ثم انتقل إلى محرك البحث الصيني Baidu لمواصلة عمله في طليعة تطبيق الذكاء الاصطناعي على مشاكل العالم الحقيقي. لذلك عندما يسمع عن كيفية تحدث إيلون موسك أو ستيفن هوكينج - أشخاص ليسوا على دراية مباشرة بالتكنولوجيا الحديثة - عن الذكاء الاصطناعي ، الذي يمكن أن يدمر البشرية ، يمكن للمرء أن يسمع وجهه وهو يغطي وجهه بيديه.
يكرر رامز نام من Marginal Revolution الشيء نفسه تقريبًا في مقال "
ما رأي الباحثين في مخاطر الذكاء الاصطناعي؟ ":
عبر إيلون موسك وستيفن هوكينج وبيل جيتس مؤخرًا عن مخاوفهم من أن تطور الذكاء الاصطناعي يمكن أن ينفذ سيناريو "قاتل الذكاء الاصطناعي" ، ومن المحتمل أن يؤدي إلى انقراض الإنسانية. إنهم ليسوا باحثين في الذكاء الاصطناعي ، وعلى حد علمي ، لم يعملوا مع الذكاء الاصطناعي مباشرة. ما رأي باحثي الذكاء الاصطناعي الحقيقيين في مخاطر الذكاء الاصطناعي؟
يقتبس كلمات باحثين مختارين خصيصًا للذكاء الاصطناعي ، مثل مؤلفي القصص الأخرى - ثم يتوقف ، دون ذكر أي آراء مختلفة عن هذا.
لكنهم موجودون. وقد أعرب باحثو الذكاء الاصطناعي ، بما في ذلك القادة في هذا المجال ، عن مخاوفهم بشأن مخاطر الذكاء الاصطناعي وما وراء الذكاء ، ومنذ البداية. سأبدأ بسرد هؤلاء الأشخاص ، على الرغم من قائمة نعم ، ثم الانتقال إلى سبب عدم اعتبار هذه "مناقشة" بالمعنى الكلاسيكي المتوقع من سرد النجوم.
معايير قائمتي هي كما يلي: أذكر فقط الباحثين المرموقين ، أو أساتذة العلوم في المعاهد الجيدة مع العديد من الاستشهادات بالأوراق العلمية ، أو العلماء المحترمين للغاية من الصناعة الذين يعملون لدى شركات كبيرة ولديهم سجل حافل. إنهم يشاركون في الذكاء الاصطناعي وتعلم الآلة. لديهم العديد من التصريحات القوية التي تدعم وجهة نظر معينة فيما يتعلق ببداية تفرد أو خطر خطير من الذكاء الاصطناعي في المستقبل القريب. البعض منهم كتب أعمالًا أو كتبًا حول هذا الموضوع. وأعرب آخرون ببساطة عن أفكارهم ، معتقدين أن هذا موضوع هام يستحق الدراسة.
إذا لم يوافق شخص ما على إدراج شخص في هذه القائمة أو يعتقد أنني نسيت شيئًا مهمًا ، فأخبرني بذلك.
* * * * * * * * * *
ستيوارت راسل أستاذ علوم الكمبيوتر في بيركلي ، الحائز على جائزة IJCAI للكمبيوتر والفكر ، وباحث في جمعية الميكنة الحاسوبية ، وباحث في الأكاديمية الأمريكية للبحث العلمي المتقدم ، ومدير مركز الأنظمة الذكية ، والفائز بجائزة بليز باسكال ، إلخ. الخ. مؤلف مشارك في
AI: A Modern Approach ، وهو كتاب كلاسيكي يستخدم في 1200 جامعة حول العالم. كتب على
موقعه على الإنترنت :
في مجال الذكاء الاصطناعي ، تم إجراء 50 عامًا من البحث تحت شعار الافتراض بأن الأكثر ذكاءً هو الأفضل. يجب أن يقترن الاهتمام لصالح الإنسانية مع هذا. الحجة بسيطة:
1. من المرجح إنشاء الذكاء الاصطناعي بنجاح.
2. نجاح غير محدود يؤدي إلى مخاطر كبيرة وفوائد كبيرة.
3. ما الذي يمكننا القيام به لزيادة فرص الحصول على الفوائد وتجنب المخاطر؟
تعمل بعض المنظمات بالفعل على هذه القضايا ، بما في ذلك معهد مستقبل الإنسانية في أكسفورد ، ومركز دراسات المخاطر الوجودية في كامبريدج (CSER) ، ومعهد دراسة ذكاء الآلة في بيركلي ومعهد الحياة المستقبلية في هارفارد / معهد ماساتشوستس للتكنولوجيا (FLI). أنا عضو في مجالس استشارية مع CSER و FLI.
تمامًا كما اعتبر الباحثون في الاندماج النووي مشكلة الحد من التفاعلات النووية كواحدة من أهم المشكلات في مجالهم ، فإن تطوير مجال الذكاء الاصطناعي سيثير حتمًا أسئلة التحكم والسلامة. بدأ الباحثون بالفعل في طرح الأسئلة ، من التقنية البحتة (المشاكل الرئيسية للعقلانية والمنفعة ، وما إلى ذلك) إلى المشاكل الفلسفية على نطاق واسع.
على
edge.org ، يصف وجهة نظر مماثلة:
كما أوضح ستيف أوموهاندرو ونيك بوستروم وآخرون ، فإن التباين في القيم مع أنظمة اتخاذ القرار ، التي تتزايد إمكانياتها باستمرار ، يمكن أن يؤدي إلى مشاكل - ربما حتى مشاكل في نطاق الانقراض ، إذا كانت الآلات أكثر قدرة من الناس. يعتقد البعض أنه لا توجد مخاطر متوقعة على البشرية في القرون القادمة ، وربما نسيوا أن الفارق الزمني بين تصريح واثق من رذرفورد بأن الطاقة الذرية لا يمكن استخراجه أبدًا وأقل من 24 ساعة من اختراع تفاعل السلسلة النووية التي بدأها النيوترون .
كما حاول أن يصبح ممثلًا لهذه الأفكار في المجتمع الأكاديمي ،
مشيرًا إلى :
أجد أن الأشخاص الرئيسيين في هذه الصناعة ، الذين لم يعبروا عن مخاوف من قبل ، يعتقدون لأنفسهم أن هذه المشكلة يجب أن تؤخذ على محمل الجد ، وكلما أخذناها على محمل الجد ، كان ذلك أفضل.
ديفيد مكاليستر أستاذ وكبير زملاء معهد تويوتا للتكنولوجيا ، التابع لجامعة شيكاغو ، وقد عمل سابقًا في كليات معهد ماساتشوستس للتكنولوجيا ومعهد كورنيل. وهو موظف في جمعية الذكاء الاصطناعي الأمريكية ، وقد نشر أكثر من مائة عمل ، وأجرى أبحاثًا في مجالات التعلم الآلي ، ونظرية البرمجة ، وصنع القرار التلقائي ، وتخطيط الذكاء الاصطناعي ، واللغويات الحاسوبية ، وكان له تأثير كبير على خوارزميات كمبيوتر الشطرنج Deep Blue الشهير. وفقا
لمقال في مراجعة بيتسبرغ تريبيون:
يعتبر الأستاذ في شيكاغو ديفيد مكاليستر أنه لا مفر من ظهور قدرة الآلات الذكية الأوتوماتيكية بالكامل على تصميم وإنشاء إصدارات أكثر ذكاءً لها ، أي بداية حدث معروف باسم التفرد [التكنولوجي]. إن التفرد سيسمح للآلات بأن تصبح ذكية بشكل لا نهائي ، مما يؤدي إلى "سيناريو خطير للغاية" ، كما يقول.
في مدونته ،
أفكار على السيارات ، كتب:
يرفض معظم علماء الكمبيوتر الحديث عن النجاحات الحقيقية في الذكاء الاصطناعي. أعتقد أنه سيكون من المعقول أن نقول أنه لا أحد قادر على التنبؤ بموعد تلقي الذكاء الاصطناعي المماثل للعقل البشري. أخبرني جون ماك آرثي ذات مرة أنه عندما سُئل عن مدى سرعة إنشاء الذكاء الاصطناعي على مستوى الإنسان ، أجاب أنه عمره من خمس إلى خمسمائة عام. كان MacArthy ذكيًا. نظرًا لعدم اليقين في هذا المجال ، فمن المعقول النظر في مشكلة الذكاء الاصطناعي الودود ...
في المراحل المبكرة ، سيكون الذكاء الاصطناعي المعمم آمنًا. ومع ذلك ، فإن المراحل الأولى من OII ستكون موقع اختبار ممتاز للذكاء الاصطناعي كخادم أو خيارات ذكاء اصطناعي أخرى ودية. يعلن Ben Goertzel أيضًا عن نهج تجريبي في منشور جيد على مدونته. إذا كان عصر OIIs الآمن وغير الذكي ينتظرنا ، فسيكون لدينا الوقت للتفكير في الأوقات الأكثر خطورة.
كان عضوًا في فريق خبراء AAAI على المدى الطويل للعقود المستقبلية الآجلة للذكاء الاصطناعي المخصص لآفاق الذكاء الاصطناعي على المدى الطويل ، وترأس لجنة الرقابة طويلة الأجل ، ويتم
وصفه على النحو التالي :
تحدث معي ماكاليستر عن نهج "التفرد" ، وهو الحدث الذي تصبح فيه أجهزة الكمبيوتر أكثر ذكاءً من الناس. لم يذكر التاريخ الدقيق لحدوثه ، لكنه قال إن هذا يمكن أن يحدث في العقدين المقبلين ، وفي النهاية سيحدث بالتأكيد. هنا وجهات نظره حول التفرد. سيحدث حدثان مهمان: الذكاء التشغيلي ، حيث يمكننا التحدث بسهولة إلى أجهزة الكمبيوتر ، وردود الفعل المتسلسلة للذكاء الاصطناعي ، حيث يمكن للكمبيوتر تحسين نفسه دون أي مساعدة ، ثم تكرارها مرة أخرى. أول حدث سنلاحظه في أنظمة المساعدة التلقائية سيساعدنا حقًا. في وقت لاحق سيصبح من المثير للاهتمام حقًا التواصل مع أجهزة الكمبيوتر. ولكي تتمكن أجهزة الكمبيوتر من القيام بكل ما يمكن للناس القيام به ، يجب عليك الانتظار حتى يحدث الحدث الثاني.
هانز مورافك أستاذ سابق في معهد الروبوتات بجامعة كارنيجي ميلون ، والذي سمي على اسم
مفارقة مورافيك ، مؤسس
شركة SeeGrid ، وهي نظام رؤية آلي للتطبيقات الصناعية. وقد تم اقتباس عمله ، "
تجميع المستشعرات في شبكات اليقين للروبوتات المحمولة "
، أكثر من ألف مرة ، وتمت دعوته لكتابة مقال للموسوعة البريطانية للروبوتات ، في وقت كتب فيه خبراء في الموسوعات مقالات في الموسوعات ، وليس مئات المعلقين المجهولين على الإنترنت.
وهو أيضًا مؤلف كتاب "
روبوت: من آلة بسيطة إلى العقل التجاوزي ، الذي تصفه أمازون على النحو التالي:
في هذا الكتاب المثير ، يتوقع هانز مورافيك أنه بحلول عام 2040 ، ستقترب الآلات من المستوى الفكري للناس ، وبحلول عام 2050 ستتفوق علينا. لكن بينما يتوقع مورافيك نهاية حقبة من الهيمنة البشرية ، فإن رؤيته لهذا الحدث ليست قاتمة. لم يتم تسييجه من مستقبل تتحكم فيه الآلات بالعالم ، ولكنه يقبله ، ويصف وجهة نظر مدهشة مفادها أن الروبوتات الذكية ستصبح نسلنا التطوري. يعتقد Moravec أنه في نهاية هذه العملية ، "سوف يتحد الفضاء الإلكتروني الواسع مع العقل اللاإنساني ويتعامل مع الشؤون بعيدًا عن الناس بعيدًا عن الشؤون البشرية من البكتيريا".
Shane Leg هو أحد مؤسسي شركة
DeepMind Technologies ، وهي شركة ناشئة للذكاء الاصطناعي تم شراؤها في عام 2014 مقابل 500 مليون دولار بواسطة Google. حصل على دكتوراه من معهد الذكاء الاصطناعي الذي سمي على اسم دايل مول في سويسرا ، وعمل أيضًا في قسم علم الأعصاب الحسابي. غاتسبي في لندن. في نهاية أطروحته ، "ذكاء الآلة" ،
يكتب :
إذا ظهر شيء يمكن أن يقترب من القوة المطلقة ، فستكون آلة فائقة الذكاء. بحكم التعريف ، ستكون قادرة على تحقيق عدد كبير من الأهداف في مجموعة متنوعة من البيئات. إذا استعدنا بعناية لمثل هذه الفرصة مقدمًا ، فلا يمكننا تجنب الكارثة فحسب ، بل يمكننا أيضًا أن نبدأ حقبة من الازدهار ، على عكس أي شيء كان موجودًا من قبل.
في مقابلة لاحقة ،
يقول :
منظمة العفو الدولية هي الآن حيث كانت الإنترنت في عام 1988. احتياجات التعلم الآلي مطلوبة في تطبيقات خاصة (محركات البحث مثل Google ، وصناديق التحوط والمعلوماتية الحيوية) ، ويتزايد عددها كل عام. أعتقد أنه في منتصف العقد المقبل ستصبح هذه العملية ضخمة وملحوظة. من المقرر أن يحدث ازدهار الذكاء الاصطناعي في حوالي عام 2020 ، يليه عقد من التقدم السريع ، ربما بعد تصحيح السوق. سيتم إنشاء الذكاء الاصطناعي على مستوى الإنسان في منتصف عام 2020 تقريبًا ، على الرغم من أن العديد من الأشخاص لن يقبلوا بداية هذا الحدث. بعد ذلك ، سيتم وضع المخاطر المرتبطة بالذكاء الاصطناعي المتقدم موضع التنفيذ. لن أقول عن "التفرد" ، لكنهم يتوقعون أنه في مرحلة ما بعد إنشاء أشياء مجنونة OII سيبدأ في الحدوث. إنه في مكان ما بين 2025 و 2040.
وقع هو
وشريكوه ديميس خاسبيس ومصطفى سليمان عريضة لمعهد الحياة المستقبلية بشأن مخاطر الذكاء الاصطناعي ، وكان أحد
شروطهما للانضمام إلى Google هو موافقة الشركة على تنظيم
مجلس لأخلاقيات الذكاء الاصطناعي لدراسة هذه القضايا.
ستيف أوموهوندرو أستاذ سابق لعلوم الكمبيوتر في جامعة إلينوي ، ومؤسس مجموعة الرؤية والتدريب على الكمبيوتر في مركز دراسة النظم المعقدة ، ومخترع مختلف التطورات المهمة في التعلم الآلي ورؤية الكمبيوتر. عمل على روبوتات قراءة الشفاه ، لغة البرمجة المتوازية StarLisp ، خوارزميات التعلم الهندسي. يقود حاليًا
أنظمة Self-Aware Systems ، "فريق من العلماء يعملون لضمان أن التقنيات الذكية تفيد البشرية." ساعد عمله ، "
أساسيات تحفيز الذكاء الاصطناعي "
، على نشر مجال أخلاقيات الآلة ، حيث أشار إلى أن الأنظمة فائقة الذكاء سيتم توجيهها نحو أهداف محتملة الخطورة. يكتب:
لقد أظهرنا أن جميع أنظمة الذكاء الاصطناعي المتقدمة من المحتمل أن يكون لها مجموعة من الدوافع الأساسية. من الضروري فهم هذه الدوافع من أجل خلق تقنيات تضمن مستقبلًا إيجابيًا للبشرية. دعا يودكوفسكي إلى "منظمة العفو الدولية ودية". للقيام بذلك ، نحتاج إلى تطوير نهج علمي لـ "التنمية النفعية" ، والذي سيسمح لنا بتطوير وظائف مفيدة اجتماعيًا تؤدي إلى التسلسل الذي نريده. يشير التقدم السريع في التقدم التكنولوجي إلى أن هذه المشاكل قد تصبح حرجة قريبًا.
يمكنك العثور على مقالاته حول موضوع "الذكاء الاصطناعي العقلاني للصالح العام" على
الرابط .
يحمل
موراي شاناهان درجة الدكتوراه في علوم الكمبيوتر من كامبريدج ، وهو الآن أستاذ الروبوتات المعرفية في إمبريال كوليدج لندن. نشر أعمالًا في مجالات مثل الروبوتات والمنطق والأنظمة الديناميكية وبيولوجيا الأعصاب الحسابية وفلسفة العقل. يعمل حاليًا على كتاب
التفرد التكنولوجي ، الذي سيتم نشره في أغسطس. الشرح الترويجي لـ Amazon هو كما يلي:
يصف شاناهان التطورات التكنولوجية في الذكاء الاصطناعي ، والتي تم إجراؤها تحت تأثير المعرفة من علم الأحياء ، وتم تطويرها من الصفر. ويوضح أنه عندما يتم إنشاء الذكاء الاصطناعي للمستوى البشري - مهمة ممكنة نظريًا ، ولكنها صعبة - فإن الانتقال إلى الذكاء الاصطناعي فائقة الذكاء سيكون سريعًا جدًا. يعكس شاناهان ما يمكن أن يؤدي إليه وجود آلات فائقة الذكاء في مجالات مثل الشخصية والمسؤولية والحقوق والفردية. يمكن إنشاء بعض ممثلي الذكاء الاصطناعي الفائق الذكاء لصالح الإنسان ، والبعض الآخر يخرج عن نطاق السيطرة. (أي سيري أو هال؟) يمثل التفرّد للبشرية تهديدًا وجوديًا وفرصة وجودية للتغلب على قيودها. يوضح شاناهان أنه إذا أردنا تحقيق نتيجة أفضل ، فعلينا أن نتخيل كل الاحتمالات.
ماركوس هاتر أستاذ أبحاث علوم الكمبيوتر في جامعة أستراليا الوطنية. قبل ذلك ، كان يعمل في معهد الذكاء الاصطناعي الذي سمي باسم عملت Dale Mole في سويسرا وفي المعهد الوطني للمعلوماتية والاتصالات في أستراليا ، وعملت أيضًا على التعلم المحفّز ، والنتائج البايزية ، ونظرية التعقيد الحسابي ، ونظرية سليمان للتنبؤات الاستقرائية ، ورؤية الكمبيوتر ، والملامح الوراثية. كما كتب الكثير عن التفرد. في مقال "
هل يمكن أن ينفجر الذكاء؟ " كتب:
قد يشهد هذا القرن انفجارًا تكنولوجيًا ، يستحق حجمه اسم التفرد. السيناريو الافتراضي هو مجتمع يتفاعل فيه الأفراد الأذكياء في العالم الافتراضي ، ويحاكي على الحواسيب ذات موارد الحوسبة المتزايدة بشكل مفرط. ويصاحب ذلك حتمًا انفجار في السرعة ، يُقاس بالوقت الفعلي ، ولكن ليس بالضرورة انفجارًا في الذكاء. إذا كان العالم الافتراضي مأهولًا بأفراد أحرار ومتفاعلين ، فإن الضغط التطوري سيؤدي إلى ظهور أفراد ذوي ذكاء متزايد يتنافسون على موارد الحوسبة. قد تكون النقطة النهائية لهذا التسارع التطوري للذكاء هي مجتمع الأفراد الأكثر ذكاءً. يمكن دراسة بعض جوانب هذا المجتمع الفردي نظريًا بمساعدة الأدوات العلمية الحديثة. قبل وقت طويل من ظهور هذا التفرد ، حتى وضع هذا المجتمع الافتراضي في خيالنا ، يمكن للمرء أن يتخيل ظهور اختلافات ، على سبيل المثال ، انخفاض حاد في قيمة الفرد ، مما قد يؤدي إلى عواقب جذرية.
يورغن شميدهوبر أستاذ الذكاء الاصطناعي بجامعة لوغانو وأستاذ سابق للروبوتات المعرفية بجامعة ميونيخ للتكنولوجيا. يطور بعض الشبكات العصبية الأكثر تقدمًا في العالم ، ويعمل على الروبوتات التطورية ونظرية التعقيد الحسابي ، ويعمل كزميل بحث في الأكاديمية الأوروبية للعلوم والفنون. في كتابه "
فرضيات الفرديّات " ، يجادل بالقول "مع استمرار الاتجاهات الحالية ، سنواجه انفجارًا فكريًا في العقود القليلة المقبلة". عندما سئل مباشرة في Reddit AMA عن المخاطر المرتبطة بالذكاء الاصطناعي ،
أجاب :
. - , ? , , : , . - . , , . , . . . , , ايجاد مكان للبقاء ".
ريتشارد ساتون أستاذ وعضو لجنة iCORE في جامعة ألبرتا. يعمل زميلًا باحثًا في جمعية تنمية الذكاء الاصطناعي ، وهو مؤلف مشارك لكتاب دراسي أكثر شيوعًا حول التعلم المحفّز ، وهو رائد طريقة اختلاف الوقت ، وهو أحد أهمها في هذا المجال.في تقريرهفي مؤتمر حول الذكاء الاصطناعي نظمه معهد مستقبل الحياة ، جادل ساتون بأن "هناك فرصة حقيقية أنه حتى في حياتنا" سيتم إنشاء ذكاء اصطناعي قابل للمقارنة فكريًا مع البشر ، وأضاف أن هذا الذكاء الاصطناعي "لن يطيعنا ،" سوف للتنافس والتعاون معنا "، وأنه" إذا أنشأنا عبيدًا أذكياء للغاية ، نحصل على خصوم أذكياء جدًا ". وفي الختام ، قال "نحن بحاجة إلى التفكير من خلال آليات (اجتماعية وقانونية وسياسية وثقافية) لضمان النتيجة المرجوة" ، ولكن "لا مفر من أن يصبح الناس العاديون أقل أهمية". كما ذكر قضايا مماثلة في عرض معهد جادسبي. أيضا في كتاب جلين بيكهناك مثل هذه السطور: "ريتشارد ساتون ، أحد أكبر المتخصصين في الذكاء الاصطناعي ، يتوقع انفجارًا في الذكاء في مكان ما في منتصف القرن".أندرو دافيسون أستاذ الرؤية الآلية في إمبريال كوليدج لندن ، وهو رائد في مجموعات الرؤية الآلية ومختبر دايسون للروبوتات ، ومخترع نظام التوطين والحوسبة المحوسب في MonoSLAM. على موقعه على الانترنت انه يكتب :, , , , 2006 : , (, 20-30 ). « » ( , ), , , , . , , , , , , .
, , , ( ). , . « » . , , , .
آلان تورنج و I. J. جيد لا يحتاج إلى تعريف. اخترع تورينج الأسس الرياضية للعلوم الحسابية وأطلق عليه بعد ذلك اسم آلة تورنج واختبار تورنج واكمال تورينج. عمل Goode مع Turing في Bletchley Park ، وساعد في إنشاء أحد أجهزة الكمبيوتر الأولى واخترع العديد من الخوارزميات المعروفة ، على سبيل المثال ، خوارزمية تحويل فورييه المنفصلة السريعة ، والمعروفة باسم خوارزمية FFT. في عملهم ، هل تستطيع السيارات الرقمية التفكير؟ يكتب تورينج:لنفترض أن هذه الآلات يمكن إنشاؤها ، والنظر في عواقب إنشائها. لا شك أن مثل هذا العمل سيقابل بالعداء ، ما لم نتقدم في التسامح الديني منذ عهد غاليليو. ستتألف المعارضة من مثقفين يخشون فقدان وظائفهم. لكن من المرجح أن المثقفين سوف يخطئون. سيكون من الممكن القيام بأشياء كثيرة في محاولة للحفاظ على فكرهم على مستوى المعايير التي وضعتها الآلات ، لأنه بعد بدء طريقة الآلة ، لا يستغرق الأمر وقتًا طويلاً حتى اللحظة التي تفوق فيها الآلات قدراتنا غير المهمة. في مرحلة ما ، يجب أن نتوقع أن الآلات ستسيطر.
أثناء العمل في Atlas Computer Lab في الستينيات ، طورت Goode هذه الفكرة في " سبب أول آلة فائقة الذكاء ":, , . – , . , , « », . , – , .
* * * * * * * * * *يزعجني أن هذه القائمة قد تعطي انطباعًا بوجود نزاع معين بين "المؤمنين" و "المشككين" في هذا المجال ، حيث يقومون بتحطيم بعضهم البعض إلى smithereens. لكنني لم أعتقد ذلك.عندما أقرأ مقالات عن المشككين ، أجد دائمًا حجتين. أولاً ، ما زلنا بعيدين جدًا عن الذكاء الاصطناعي على المستوى البشري ، ناهيك عن الذكاء الفائق ، ولا توجد طريقة واضحة لتحقيق مثل هذه المرتفعات. ثانيًا ، إذا طلبت حظرًا على أبحاث الذكاء الاصطناعي ، فأنت أحمق.أتفق تماما مع كلتا النقطتين. مثل قادة حركة خطر الذكاء الاصطناعي.مسح بين باحثي الذكاء الاصطناعي ( Muller & Bostrom، 2014) أظهروا أنهم في المتوسط يعطون 50٪ لحقيقة أن الذكاء الاصطناعي على مستوى الإنسان سيظهر بحلول عام 2040 ، و 90٪ - سيظهر بحلول عام 2075. في المتوسط ، يعتقد 75٪ منهم أن الذكاء الفائق ("ذكاء الآلة ، يتجاوز القدرات بشكل خطير لكل شخص في معظم المهن ") ستظهر في غضون 30 عامًا بعد ظهور الذكاء الاصطناعي على مستوى الإنسان. وعلى الرغم من أن تقنية هذا الاستطلاع تثير بعض الشكوك ، إذا قبلت نتائجها ، فقد اتضح أن معظم باحثو الذكاء الاصطناعي يتفقون على أن شيئًا يستحق القلق بشأنه سيظهر في جيل أو جيلين.لكن مدير معهد الذكاء الآلي ، لوك مولهاوزر ، ومدير معهد مستقبل الإنسانية ، نيك بوستروم ، ذكر أن توقعاتهم لتطوير الذكاء الاصطناعي تأتي في وقت متأخر عن توقعات العلماء المشاركين في المسح. إذا كنت تدرسبيانات عن تنبؤات الذكاء الاصطناعي من ستيوارت أرمسترونغ ، يمكن ملاحظة أنه بشكل عام ، لا تختلف التقديرات بحلول وقت ظهور الذكاء الاصطناعي التي قدمها أنصار الذكاء الاصطناعي عن التقديرات التي أجراها المشككون بالذكاء الاصطناعي. علاوة على ذلك ، فإن التنبؤ طويل المدى في هذا الجدول ينتمي إلى أرمسترونغ نفسه. ومع ذلك ، يعمل أرمسترونغ حاليًا في معهد مستقبل الإنسانية ، لافتًا الانتباه إلى مخاطر الذكاء الاصطناعي والحاجة إلى البحث في أهداف الذكاء الفائق.لا يكمن الفرق بين المؤيدين والمتشككين في تقييماتهم للوقت الذي ينبغي أن نتوقع فيه ظهور الذكاء الاصطناعي على المستوى البشري ، ولكن في الوقت الذي نحتاج فيه لبدء التحضير لهذا.وهو ما يقودنا إلى النقطة الثانية. يبدو أن موقف المتشككين هو أنه على الرغم من أنه من المحتمل أن نرسل اثنين من الأشخاص الأذكياء للعمل على تقييم أولي للمشكلة ، فلا حاجة على الإطلاق إلى الذعر أو حظر دراسة الذكاء الاصطناعي.يصر معجبو الذكاء الاصطناعي على أنه على الرغم من أننا لسنا بحاجة إلى الذعر أو حظر أبحاث الذكاء الاصطناعي ، فمن الجدير على الأرجح إرسال اثنين من الأشخاص الأذكياء للعمل على تقييم أولي للمشكلة.يمكن القول أن جان ليكون هو أكثر المتشككين المتحمسين لمخاطر الذكاء الاصطناعي. تم اقتباسه بوفرة في مقال عن العلوم الشعبية ، في منشور عن الثورة الهامشية ، وتحدث أيضًا مع KDNuggets و IEEEحول "قضايا التفرد الحتمية" ، التي يصفها هو نفسه بأنها "بعيدة جدًا بحيث يمكن كتابة الخيال العلمي عنها". ولكن عندما طُلب منه توضيح موقفه ، قال:يشعر إيلون ماسك بقلق شديد حيال التهديدات الوجودية للبشرية (وهذا هو السبب في أنه يبني صواريخ لإرسال الناس لاستعمار الكواكب الأخرى). وعلى الرغم من أن خطر تمرد الذكاء الاصطناعي ضئيل جدًا وبعيدًا جدًا عن المستقبل ، فإننا بحاجة إلى التفكير فيه وتطوير تدابير وقواعد وقائية. مثلما ظهرت لجنة أخلاقيات البيولوجيا في السبعينيات والثمانينيات ، قبل الاستخدام الواسع للوراثة ، نحتاج إلى لجان أخلاقيات الذكاء الاصطناعي. ولكن ، كما كتب Yoshua Benjio ، لا يزال لدينا متسع من الوقت.
إريك هورفيتز هو خبير آخر غالبًا ما يشار إليه باسم الناطق الرئيسي بالتشكيك والقيود. تم وصف وجهة نظره في مقالات مثل " يعتقد مدير أبحاث Microsoft أن خارج نطاق السيطرة الذكاء الاصطناعي لن يقتلنا " ، و " يعتقد إريك هورفيتز من Microsoft أن الذكاء الاصطناعي لا ينبغي أن يخاف ". ولكن هذا ما قاله في مقابلة أطول مع NPR:كيست: يشك هورفيتز في أن الأمناء الافتراضيين سيتحولون إلى شيء سيقهر العالم. يقول إن هذا أمر متوقع أن تتطور طائرة ورقية إلى طائرة بوينج 747. هل يعني هذا أنها تسخر من التفرد؟
هورفيتز: لا. أعتقد أنه كان هناك مزيج من المفاهيم ، وأنا أيضًا لدي مشاعر مختلطة.
كيست: على وجه الخصوص ، نظرًا لأفكار مثل التفرد ، يحاول هورفيتس وخبراء آخرون في الذكاء الاصطناعي بشكل متزايد التعامل مع القضايا الأخلاقية التي قد تنشأ مع الذكاء الاصطناعي المستهدف بشكل ضيق في السنوات القادمة. يسألون أيضًا أسئلة أكثر مستقبلية. على سبيل المثال ، كيف يمكنني عمل زر إيقاف تشغيل للطوارئ لجهاز كمبيوتر يمكنه تغيير نفسه؟
هورفيتس: أعتقد حقًا أن المخاطر كبيرة بما يكفي لقضاء الوقت والطاقة في البحث بنشاط عن الحلول ، حتى إذا كان احتمال مثل هذه الأحداث صغيرًا.
يتزامن هذا بشكل عام مع موقف العديد من أكثر محفزات مخاطر الذكاء الاصطناعي حماسة. مع هؤلاء الأصدقاء ، لا حاجة للأعداء.
مقال سليت ، "
لا تخف من الذكاء الاصطناعي "
، يضع بشكل مفاجئ الأشياء في الضوء الصحيح:
كما يقول مسك نفسه ، فإن حل خطر الذكاء الاصطناعي يكمن في التعاون الرصين والعقلاني بين العلماء والمشرعين. ومع ذلك ، من الصعب جدًا فهم كيف يمكن أن يساعد الحديث عن "الشياطين" في تحقيق هذا الهدف النبيل. يمكنها حتى أن تعوقها.
أولاً ، هناك فجوات كبيرة في فكرة نص Skynet. على الرغم من أن الباحثين في مجال علوم الكمبيوتر يعتقدون أن منطق ماسك "ليس مجنونًا تمامًا" ، إلا أنهم لا يزالون بعيدون جدًا عن عالم يخفي فيه الضجيج حول الذكاء الاصطناعي واقعًا أقل في الذكاء الاصطناعي يواجهه علماء الكمبيوتر لدينا.
لخص إيان ليكون ، رئيس مختبر الذكاء الاصطناعي في Facebook ، هذه الفكرة في منشور على Google+ في عام 2013: الضجيج يضر بالذكاء الاصطناعي. على مدى العقود الخمسة الماضية ، قتل الضجيج منظمة العفو الدولية أربع مرات. إنها بحاجة إلى أن تتوقف ". ويخشى Lekun والآخرون حقًا من الضجيج. يؤدي الفشل في تلبية التوقعات العالية التي يفرضها الخيال العلمي إلى تخفيضات كبيرة في الميزانية لأبحاث الذكاء الاصطناعي.
العلماء الذين يعملون على الذكاء الاصطناعي أشخاص أذكياء. إنهم لا يهتمون بالوقوع في الفخاخ السياسية الكلاسيكية ، حيث سيتم تقسيمهم إلى معسكرات ويتهمون بعضهم البعض بالذعر أو النعام. يبدو أنهم يحاولون إيجاد توازن بين الحاجة إلى بدء العمل الأولي المتعلق بالتهديد الذي يلوح في مكان ما عن بعد ، وخطر التسبب في مثل هذا الإحساس القوي الذي سيضربهم.
لا أريد أن أقول أنه لا يوجد اختلاف في الرأي حول متى تحتاج إلى البدء في معالجة هذه المشكلة. يعود الأمر في الأساس إلى ما إذا كان من الممكن القول "سنحل المشكلة عندما نواجهها" ، أو نتوقع مثل هذه الإقلاع غير المتوقع ، الذي سيخرج منه كل شيء خارج نطاق السيطرة ، وبالتالي ، نحن بحاجة إلى الاستعداد مقدما. أرى أدلة أقل مما أود أن غالبية الباحثين بالذكاء الاصطناعي يفهمون الاحتمال الثاني. ماذا يمكنني أن أقول ، حتى لو نُقل عن أحد
الخبراء في مقال عن "الثورة الهامشية"
قوله إن الذكاء الفائق لا يشكل تهديدًا كبيرًا ، لأن "أجهزة الكمبيوتر الذكية لا يمكنها تحديد أهداف لأنفسها" ، على الرغم من أن أي شخص
يقرأ بوستروم يعلم أن المشكلة برمتها.
لا يزال هناك جبل من العمل الذي يتعين القيام به. ولكن ليس فقط لاختيار المقالات التي لا "يقلق فيها خبراء الذكاء الاصطناعي الحقيقيون بشأن الذكاء الفائق".