الذكاء الاصطناعي الفيلسوف إليعازر يودكوسكي عن التفرد ، الدماغ البايزي ، والعفاريت في مجلس الوزراء

الصورة

إليعازر شلومو يودكوفسكي متخصص أمريكي في الذكاء الاصطناعي ، ويدرس مشاكل التفرد التكنولوجي ويدعو إلى إنشاء منظمة العفو الدولية الصديقة. في الأوساط غير الأكاديمية ، يُعرف بشكل أفضل كمؤلف رواية معجبي هاري بوتر وأساليب العقلانية تحت رعاية أقل خطأ.

لقد كنت مندهشا دائما من الأشخاص الأذكياء الذين يؤمنون بأشياء تبدو لي سخيفة. على سبيل المثال ، يعتقد عالم الوراثة ومدير المعاهد الوطنية للصحة ، فرانسيس كولينز ، أن يسوع قام من بين الأموات. يعتقد المنظر لمنظمة العفو الدولية اليعازر يودكوسكي أن السيارات ... ولكن من الأفضل أن أعطي الكلمة له بنفسي. في عام 2008 ، أجريت معه مقابلة على Bloggingheads.tv ، ولكن لم يأت الأمر بأي شيء جيد ، لأنني قررت أنه كان من أتباع معلم التفرد راي كورزويل . لكن يودكوفسكي لم يتبع أي شخص ولم يذهب إلى الكلية أبدًا. وهو مناصر للذكاء العنيد والأصلي ، البشري والاصطناعي. إن عمله (على سبيل المثال ، مقالة ساعدتني على فهم نظريات بايز أو أعطت وهم الفهم) ينضح غطرسة العصاميين ، التي لم يتم تلميع حوافها الحادة من خلال التعليم الرسمي - ولكن هذا جزء من سحره. حتى عندما يزعجك ، يودكوفسكي مضحك ، طازج ، استفزازي. للحصول على تفاصيل عن سيرته الذاتية ، راجع موقعه الشخصي أو موقع معهد دراسة ذكاء الآلة ، الذي شارك فيه. وقراءة هذه المقابلة بمكافأة في شكل تعليقات من زوجته برينا.

هورغان : عندما تُسأل في الحفلة ماذا تفعل ، ماذا تجيب؟

يودكوفسكي : يعتمد على الحدث. "أنا متخصص في نظرية القرار" أو "أحد مؤسسي معهد دراسة ذكاء الآلة" أو إذا كانت هذه حفلة من نوع مختلف ، أتحدث عن أعمالي الفنية.

X: ما هو فيلم الذكاء الاصطناعي المفضل لديك ولماذا؟

Yu: إن الذكاء الاصطناعي في الأفلام قياسي بشكل رهيب. لقد اقتربت Ex Machina من استثناء لهذه القاعدة كما هو متوقع.

X: هل فائدة الكلية مبالغ فيها؟

Yu: سأكون متفاجئًا إذا تم التقليل من فائدته ، نظرًا للمتطلبات الاجتماعية لإنهائه. على حد علمي ، لا يوجد سبب لعدم تصديق الاقتصاديين الذين يعتقدون أن الكلية أصبحت "منتجًا مرموقًا" وأن محاولات زيادة قروض الطلاب أدت ببساطة إلى زيادة تكلفة الكلية وعبء ديون الطلاب.

X: لماذا تكتب قصص الخيال؟

Yu: إذا قمت بإعادة صياغة القصص المصورة Wondermark : "في البداية حاولت ألا تفعل ذلك ، لكنها لم تنجح".

بالإضافة إلى ذلك ، ينقل الأدب الجاد المعرفة ، بينما ينقل الخيال الخبرة. إذا كنت ترغب في فهم البراهين على صيغة Bayes ، يمكنني استخدام الرسوم البيانية. إذا كنت تريد أن تشعر كيف تستخدم منطق بايز ، فأنا بحاجة إلى كتابة قصة تجعلها الشخصية.

X: هل أنت متدين بأي شكل من الأشكال؟

يو: لا. عندما ترتكب خطأ ، يجب أن تتجنب إغراء المغادرة دفاعًا ، حاول أن تجد وجهة نظر تكون فيها على الأقل قليلًا من الصواب. من الأكثر حكمة أن تقول: "أوه" ، للاعتراف بأنك لم تكن على حق حتى ، بلع حبة مريرة كاملة واستمر في العيش. هكذا يجب أن ترتبط الإنسانية بالدين.

X: إذا أصبحت "ملك العالم" ، فماذا سيكون على رأس قائمة مهامك؟

يو: كتبت ذات مرة: "اختبار لأعمال ليبرالية مثل هذا: تخيل أنك قد اكتسبت السلطة ؛ ما رأيك أولاً - حول القوانين التي تقبلها ، أو القوانين التي تلغيها؟ " لست ليبراليًا بنسبة 100٪ ، لأنه لا يتم التعبير عن كل قائمة أمنياتي في إلغاء القوانين وتخفيف القيود. لكني أتخيل كيف سأحاول أن أصنع عالمًا حيث يمكن لبعض العاطلين عن العمل أن يقدموا لك رحلة للعمل ، والحصول على 5 دولارات لمدة 20 دقيقة بالسيارة ، ولن يحدث له شيء سيئ بسبب هذا. لن يضطر إلى فقدان تأمين البطالة ، أو تسجيل الإذن لممارسة الأعمال التجارية ، أو فقدان التأمين الطبي ، أو الخضوع للتدقيق ، أو الطلب من محام أن يشهد على أن عمله يتوافق مع قواعد إدارة حماية العمال ، إلخ. كان سيضيف 5 دولارات فقط.

أود أن أحاول العودة إلى الحالة التي يكون فيها تعيين موظف بسيطًا مثل عام 1900. ربما هناك الآن معنى في بعض الإجراءات الأمنية ، لكني سأحاول إنشاء مثل هذا الأمن الذي لا يقيد الشخص ولا ينتج أوراقًا نتيجة عودة بسيطة لشخص إلى الاقتصاد.

سأحاول أن أفعل كل ما كان الاقتصاديون الأذكياء يصرخون بشأنه منذ فترة طويلة ، وهو ما لا تفعله أي دولة. استبدال ضرائب الاستثمار والدخل بضرائب الاستهلاك والعقارات. استبدل الحد الأدنى للأجور بضرائب الرواتب السلبية. وضع سياسة لاستهداف الناتج المحلي الإجمالي الاسمي للبنوك المركزية ووقف الهياكل الداعمة "أكبر من أن تتعطل". مطالبة ، أثناء التقاضي بشأن البراءات ، أن يدفع الطرف الخاسر رسومًا قانونية [ وفقًا لما يسمى قاعدة اللغة الإنجليزية - على النقيض من القوانين الأمريكية ، والتي وفقًا لها يتخلف كل طرف عن سداد تكاليفه الخاصة - تقريبًا. perev. ] وإرجاع مدة حقوق الطبع والنشر إلى 28 سنة. إزالة العوائق التي تعترض بناء المنازل. نسخ التأمين الصحي من سنغافورة. الحكومة الإلكترونية في إستونيا. استبدل اللجان وعمليات صنع القرار المعقدة بأفراد محددين يتخذون قرارات موثقة علنًا ويكونوا مسؤولين عن ذلك. إجراء تجارب خاضعة للرقابة مع خيارات مختلفة لإدارة البلدان ومراعاة نتائجها. يمكنني أن أذهب إلى القائمة لساعات.

كل هذا قد لا يهم في مائتي مليون سنة. لكن الأصول الاسمية الناتجة عن الطفرة الاقتصادية يمكن أن تقوم بعمل جيد بينما أحاول معرفة ما سنفعله بالذكاء الاصطناعي. الأمر الواضح هو مشروع مانهاتن في مكان ما على الجزيرة ، مع الدفع على أساس المنافسة بين أكبر صناديق التحوط التي يمكن للناس من خلالها استكشاف مشكلة الذكاء الاصطناعي المعمم دون نشر نتائج عملهم بشكل تلقائي ينهي نهاية العالم. وما لم نقبل أن لدي قدرات سحرية أو وضع لا رجعة فيه بشكل أساسي ، لا أرى كيف أن أي قانون أقبله سيؤخر نهج الذكاء الاصطناعي بقوة على كوكب حيث تكون أجهزة الكمبيوتر في كل مكان.

لكن كل هذا لا يزال يمكن اعتباره تجربة فكرية مستحيلة وفي الحياة الواقعية احتمال مثل هذه التجربة هو صفر.

X: ما هو الجيد في نظرية بايز؟

Yu: حسنًا ، على سبيل المثال ، فهي عميقة جدًا. لذلك ، من الصعب الإجابة على مثل هذا السؤال بإيجاز.

أستطيع أن أجيب أن نظرية بايز يمكن أن تسمى القانون الثاني للديناميكا الحرارية للإدراك. إذا استنتجت أن احتمال بعض الافتراضات هو 99 ٪ ، سواء كان وجود الحليب في السوبر ماركت أو السبب البشري المنشأ للاحترار العالمي ، فلديك مزيج من الاحتمالات المسبقة الجيدة والأدلة الموثوقة إلى حد ما. هذا ليس شرطا تنظيميا ، بل هو قانون. تمامًا كما لا يمكن للسيارة القيادة بدون تبديد الإنتروبيا ، لا يمكنك الحصول على صورة جيدة للعالم دون إجراء عملية يوجد فيها هيكل بايزي في مكان ما بالداخل ، حتى إذا لم يتم استخدام الاحتمالات مباشرة في العملية.

أنا شخصياً أعتقد أن الشيء الرئيسي الذي يمكن أن يقدمه لنا بايز هو وجود قواعد ، قوانين حديدية تحدد ما إذا كانت طريقة التفكير تعمل على تحديد الواقع. قيل للمورمون أنهم يدركون حقيقة كتاب المورمون من خلال إحساس حارق في القلب. تقبل بشكل محترم الاحتمالية المسبقة لكتاب مورمون كواحد في المليار. ثم ، نقيم احتمال أن كتاب مورمون غير صحيح ، وشعر شخص ما بحرقان في القلب بعد أن أخبروه أنه يجب توقع ذلك. إذا فهمت صيغة بايز ، فسوف ندرك على الفور أن الاحتمال المنخفض للدليل لا ينسجم مع الاحتمالية المنخفضة للفرضية التي يحاولون إثباتها بمساعدتها. لا تحتاج حتى إلى التوصل إلى أرقام محددة لكي تفهم أنها لا تتقارب - كما اكتشف فيليب تيتلوك في دراسته لـ "المتفوقين الفائقين" ، غالبًا ما كانوا يعرفون صيغة بايز ، لكنهم نادرًا ما أعطوا أرقامًا محددة. بمعنى ما ، من الصعب خداعك إذا فهمت أن هناك نوعًا من الرياضيات يمكنك من خلاله تحديد قوة الإثبات بدقة وفهم ما إذا كان يكفي التغلب على الاحتمالية المنخفضة للفرضية. لا يمكنك اختراع شيء ما والإيمان به ، لأنه لا يعمل بهذه الطريقة.

X: هل الفرضية الدماغية البايزية تثير إعجابك؟

Yu: أعتقد أن بعض الأشخاص الذين يتجادلون حول هذا الموضوع يتحدثون عن أشياء مختلفة. يسأل ما إذا كان الدماغ خوارزمية بايزية مثل السؤال عما إذا كان هوندا أكورد مدعومًا بمحرك حرارة كارنوت . إذا قال أحد الأشخاص: "كل سيارة هي عملية ديناميكية حرارية تتطلب الوقود وتبدد الحرارة الشاردة" ، ويسمع شخص آخر: "إذا قمت ببناء رسم تخطيطي لدورة كارنوت وأظهر ميكانيكاها ، فيجب أن يوافق على أنها تبدو وكأنها داخل هوندا أكورد "، ثم لا مفر من الجدل المحتدم.

سيكون بعض الناس سعداء للغاية عندما يفتحون محرك الاحتراق الداخلي ، ويجدون الأسطوانات الموجودة فيه ويقولون: "أنا متأكد من أنهم يحولون الحرارة إلى ضغط ويساعدون في دفع السيارة إلى الأمام!" وسيكونون على حق ، لكن الآخرين سيقولون: "أنت تركز على المكون الوحيد لمجموعة أكبر بكثير من قطع غيار السيارات. يعتبر المحول الحفاز أيضًا مهمًا جدًا ، وهو ليس على الرسوم البيانية لدورة Carnot. وأحيانًا يعمل مكيف الهواء بالنسبة لنا ، وهو يعمل عكس ما يعمل محرك الحرارة وفقًا لكلماتك ".

لا أعتقد أنه سيكون من المفاجئ إذا قلت أن الأشخاص الذين يتحدثون عنك: "من الواضح أنك غير معتاد على السيارات الحديثة ، أنت بحاجة إلى مجموعة كاملة من الطرق المختلفة لبناء محرك ، مثل الشموع والمحولات الحفازة ، وليس فقط العمليات الديناميكية الحرارية الخاصة بك "، فهي تفتقد إلى مستوى رئيسي من التجريد.

ولكن إذا كنت تريد أن تعرف ما إذا كان الدماغ يمكن اعتباره حرفياً بايزيًا ، وليس جهازًا يقوم بعمل إدراكي ، والذي يمكننا فهم طبيعته باستخدام طرق بايزي ، فيمكنني الإجابة عن سؤالك: "لا ، بالطبع". قد يكون هناك عدة "أسطوانات" بايزي في هذا "المحرك" ، ولكن إلى حد كبير سيبدو غريبًا مثل أحزمة الأمان وتكييف الهواء. لكن هذه الإضافات لن تغير حقيقة أنه من أجل تحديد تفاحة بشكل صحيح بناءً على الأدلة الحسية ، يجب القيام بشيء ما يمكن تفسيره كنتيجة للتحريض الذي يمكن أن يفهم مفهوم التفاح ويتم تحديثه على أساس الأدلة التي تميز التفاح عن غير التفاح.

X: هل من الممكن أن تكون عقلانيًا جدًا؟

Yu: يمكنك الدخول إلى ما يسمى ب "وادي العقلانية السيئة". إذا كنت قبل ذلك غير عقلاني في عدة أشياء ، وتوازن بعضها البعض ، فعندما تصبح عقلانيًا ، فقد تصبح أسوأ من ذي قبل. كلما أصبحت أكثر عقلانية ، كلما أصبحت أسوأ إذا اخترت الاتجاه الخاطئ لتطبيق مهاراتك.

لكنني لا أنصح بالاهتمام كثيرًا بهذه الفرصة. في رأيي ، فإن الأشخاص الذين يتحدثون عن كيف يمكن أن يكون غير عقلاني بذكاء هم معتوهون. من الصعب الخروج بموقف حياة واقعي ، وليس بعيد المنال حيث يمكنك أن تقرر أن تكون غير عقلاني ، ولا تزال نتيجته غير معروفة لك. في الحياة الواقعية ، من الأفضل أن تخبر نفسك بالحقيقة وأن لا تكون ذكيًا.

من الممكن أن الممثل المثالي للتفكير البايزي لا يتوافق مع الحياة الشيقة والمسلية. ولكن من الواضح أن هذه ليست مشكلة كبيرة مثل ميلنا إلى التدمير الذاتي.

X: كيف تختلف وجهة نظرك عن التفرد عن وجهة نظر Kurzweil؟

يو:
• لا أعتقد أنه يمكن تطبيق قانون مور على الذكاء الاصطناعي. إن الذكاء الاصطناعي مشكلة في البرامج.
• لا أعتقد أن الفكر الخارق الأول سيظهر من اندماج الآلات مع الناس. لقد مرت مائة عام منذ ظهور السيارات ، ونحن نحاول الآن صنع هيكل خارجي للحصان ، ولا تزال السيارة العادية أسرع.
• لا أعتقد أن أول ذكاء اصطناعي قوي سيعتمد على خوارزميات من علم الأعصاب ، تمامًا كما لم تكن الطائرات تعتمد على الطيور.
• لا أعتقد أن اندماج التقنيات النانوية والمعلوماتية والحيوية أمر ممكن أو حتمي أو محدد جيدًا أو ضروري.
• أعتقد أنه من 1930 إلى 1970 كانت هناك تغييرات أكثر من 1970 إلى 2010.
• أعتقد أن الإنتاجية في البلدان المتقدمة راكدة.
• أعتقد أن استقراء قانون مور للتقدم التكنولوجي ، الذي يفترض أنه يتوقع كل شيء سيكون أكثر ذكاءً من البشر بعد ظهور الذكاء الاصطناعي ، أمر غريب للغاية. الذكاء الاصطناعي الأكثر ذكاءً يدمر كل رسوماتك.
• يعتقد بعض المحللين ، مثل Illka ​​Tuomi ، أن قانون مور قد خرق في أوائل العقد الأول من القرن الحادي والعشرين. لست متأكدًا أنني أستطيع الاعتراض.
• العتبة التكنولوجية الوحيدة التي تهمني هي حيث يكتسب الذكاء الاصطناعي القدرة على التحسين. ليس لدينا جدول زمني يصل إلى هذا الحد ، وليس من الواضح ما سيكون عليه (على الرغم من أنه لا ينبغي أن يتجاوز مستوى الشخص إلى حد كبير ، لأن الشخص يفهم علوم الكمبيوتر) ، لذلك لا يمكن توقع هجومه.
• لا أعتقد أن نتيجة هذا التقدم ستكون جيدة بشكل افتراضي. أعتقد أنه يمكن جعلها جيدة ، ولكن يجب العمل بجدية عليها ، ولا يهم الشخصيات الرئيسية ذلك. أن نقول للناس أننا على مسار طبيعي لأوقات عظيمة ورائعة سيكون كذبة.
• أعتقد أن "التفرد" أصبح كلمة حقيبة تحتوي على الكثير من المعاني والتفاصيل غير المتوافقة في الداخل ، لذلك توقفت عن استخدامها.

X: هل من المحتمل أن تصبح رجلًا ذكيًا للغاية؟

Yu: يقول قانون اقتران الاحتمالات أن P (A & B) <= P (A). احتمال حدوث حدثين A و B في وقت واحد أقل من احتمال وقوع حدث واحد A. في التجارب التي يعتقد فيها الناس أن P (A & B)> P (A) لحدثين A و B ، يظهر " خطأ اقتران " - على سبيل المثال ، في عام 1982 ، خصص خبراء من المؤتمر الدولي للتنبؤات احتمالية أكبر لحدث "روسيا تغزو بولندا والعلاقات الدبلوماسية مع اتحاد الجمهوريات الاشتراكية السوفياتية" من احتمال وقوع حدث منفصل "انهيار العلاقات الدبلوماسية مع اتحاد الجمهوريات الاشتراكية السوفياتية" ، عينته مجموعة أخرى. وبالمثل ، أعطت مجموعة أخرى احتمالية أكبر لحدث "زلزال في كاليفورنيا يؤدي إلى فيضان يؤدي إلى آلاف الضحايا" من غيرها - احتمال وقوع حدث "في مكان ما في أمريكا الشمالية هناك فيضان مع الآلاف من الضحايا". على الرغم من أن إضافة تفاصيل إضافية إلى القصة تجعلها أقل احتمالية ، إلا أنها تجعلها أكثر تصديقًا. بالنسبة لي ، من خلال فهم هذه الحقيقة ، فإن الأمر يشبه " جسر الحمير " للمستقبل الجاد - الفرق بين حقيقة أنك تزن بعناية كل افتراض فردي وتكتشف ما إذا كان بإمكانك دعم هذا التوضيح بشكل مستقل عن كل الآخرين وأنك ببساطة تؤلف وقصة نابضة بالحياة.

هذا كل ما أقوله في سياق الإجابة على السؤال: "لماذا تضيفون مثل هذا التنقيح مثل سايبورغ إلى هذا؟ لا أريد أن أكون رجلًا آليًا ". من الضروري نسج التفاصيل الإضافية بعناية للبيانات.

X: هل لديك فرصة الخلود؟

Yu: حرفيا؟ من الصعب تحقيق الخلود الحرفي. لكي تعيش لفترة أطول بكثير من بضعة تريليون سنة ، تحتاج إلى إعادة النظر في المصير المتوقع للكون المتسع. لتعيش أطول من googolpleks ، من الضروري أن نخطئ حول أسس القوانين الفيزيائية ، وليس فقط في التفاصيل.

حتى لو اتضح أن بعض المنطق غير العادي صحيح وكان بإمكان كوننا أن يولد الأكوان الابنة ، فإن هذا لن يمنحنا الخلود. لكي تعيش سنوات عديدة من Googleplex ولا تكرر نفسك ، ستحتاج إلى أجهزة كمبيوتر تحتوي على عناصر أكثر من Google ، ولن تناسب هذه الآلة مجال Hubble .

و googolpleks ليست اللانهاية. لإعادة صياغة مارتن غاردنر ، لا يزال رقم جراهام صغيرًا جدًا ، لأن معظم الأعداد النهائية أكبر بكثير منه. إذا كنت تريد أن تتفاجأ ، اقرأ عن التسلسلات الهرمية سريعة النمو ، وستظل اللانهاية أطول.فقط النظريات البشرية الغريبة والمخيفة ستسمح لك بالعيش لفترة طويلة بما يكفي لمشاهدة توقف بجوار أطول آلة تورينج مع مئات الدول.

ومع ذلك ، لا أعتقد أنه من وجهة نظر عاطفية ، أود أن أعيش طويلًا بما يكفي لرؤية الرقم رقم مائة في اللعبة " البحث عن عامل قندس"يمكنني التعاطف مع نفسي بطريقة ما ، التي عاشت مائة عام من الآن. هذا المستقبل يمكنني التعاطف مع المستقبل بنفسي في مائة عام أخرى. وربما في مكان ما من هذا التسلسل سيكون هناك شخص يواجه احتمال زوال الوجود ، و يمكن أن يكون حزينًا جدًا بشأن هذا. لكنني لست متأكدًا من أنني أتخيل هذا الشخص. "أريد أن أعيش يومًا آخر. وغدًا سأريد أيضًا أن أعيش يومًا آخر. لذلك ، أريد أن أعيش إلى الأبد ، وأثبت ذلك عن طريق تحريض أعداد صحيحة أرقام ". حتى رغبتي لفترة طويلة . الحياة في الكون من الممكن جسديا - هو التجريد الناتجة عن الاستقراء لا يمكن تصور نفسها من خلال تريليون سنة.

X:وصفت التفرد بأنه خيال هروب وعلم زائف ، يصرفنا عن تغير المناخ والحروب وعدم المساواة ومشاكل خطيرة أخرى. لماذا أكون مخطئا؟

Yu: لأنك تحاول التنبؤ بالحقائق التجريبية من خلال التحليل النفسي. لن تنجح أبدا.

لنفترض أننا نعيش لنرى ظهور الذكاء الاصطناعي الذي يكون ذكيًا بما يكفي ليقوم بنفس العمل في تحسين الذكاء الاصطناعي الذي يفعله الناس. يمكنه ضبط نفسه والبرمجة وابتكار خوارزميات جديدة. لتحسين. ماذا سيحدث بعد ذلك - سيصبح أكثر ذكاءً ، ويرى المزيد من فرص التحسين ، وسرعان ما يصل إلى مستوى عالٍ جدًا؟ أم لن يحدث شيء مميز؟

قد يحدث أن (أ) التحسين الذاتي في دلتا معينة سيجعل الذكاء الاصطناعي ذكيًا بما فيه الكفاية بحيث يمكنه النظر إلى الوراء والعثور على تحسن محتمل جديد في حجم دلتا k * ، حيث k> 1 ، وسيتكرر هذا عدة مرات ليؤدي إلى تحسين ذاتي سريع ل مستوى الذكاء الفائق. ما أسماه ايرفينغ جون جود "انفجار المخابرات". أو (ب) ، ك أقل من الوحدة أو كل هذه التحسينات صغيرة ولا تؤدي إلى ظهور الذكاء الفائق ، أو الذكاء الفائق مستحيل بشكل عام ، وبدلاً من الانفجار سيكون هناك زيلك. ما هو الصحيح A أو B؟ إذا قمت ببناء ذكاء اصطناعي بمستوى معين وحاول القيام بذلك ، فسيحدث شيء ما في العالم الواقعي التجريبي ، وسيتم تحديد هذا الحدث من خلال الحقائق المتعلقة بمشهد الخوارزميات والتحسينات القابلة للتحقيق.

لا يمكن الحصول على معلومات موثوقة حول هذا الحدث من التحليل النفسي للناس. الأمر أشبه بمحاولة بدء سيارة بدون وقود - هذا ما تخبرنا به نظرية بايز. سيكون بعض الأشخاص دائمًا هاربين ، بغض النظر عن القيم الفعلية للمتغيرات المخفية في علوم الكمبيوتر ، لذلك لا يمكن وصف بعض الهروبين بأنه دليل صارم.

هذا اعتقاد خاطئ عن طبيعة العقلانية - أنه من المنطقي الاعتقاد بأن "العفاريت في الحجرات غير موجودة" لأن الإيمان بالعفاريت من خزانة هو غبي ، وغير ناضج ، وعفا عليه الزمن ، ولا يؤمن به سوى الحمقى. المبدأ الحقيقي للعقلانية هو الذهاب والتحقق من الخزانة. لذلك في تلك الأكوان التي تعيش فيها العفاريت في الحجرات ، ستؤمن بالعفاريت ، وفي الأكوان التي لا تكون فيها العفاريت في الحجرات ، لن تؤمن بها.

إنه أمر صعب ، ولكن من حيث المبدأ ، من الممكن محاولة النظر من خلال باب الجار والسؤال: "ما الذي سيكون مختلفًا في الكون إذا لم يكن من الممكن الحصول على دخل جيد من الاستثمارات المعرفية ، أي أن الذكاء الاصطناعي الذي يحاول تحسين نفسه لن ينتهي بانفجار ، ولكن مع زيلش؟ ما هي الحقائق الأخرى التي ستكون مميزة لهذا الكون؟ "

هناك أشخاص يدعون أن الذكاء الاصطناعي لا يمكن رفعه إلا إلى مستوى الشخص ، لأننا نحن بشر ولا يمكننا رفعه إلى أعلى. يبدو لي أنه إذا كان عالمنا هكذا ، فيجب أن نلاحظ انخفاضًا في الدخل من الاستثمارات في الأجهزة والبرامج لشطرنج الكمبيوتر يتجاوز مستوى الشخص - وهو أمر لا يحدث في الواقع. بالإضافة إلى ذلك ، لن يكون الانتقاء الطبيعي قادرًا على إنشاء شخص في ذلك الوقت ، وكان ينبغي أن تكون والدة أينشتاين فيزيائية مذهلة ، إلخ. الخ.

هناك أناس يجادلون بأنه كلما كانت الخوارزمية أكثر تعقيدًا ، زادت التعديلات التي تحتاجها ، وأن ذكائنا يعمل بمثابة نوع من القيود لهذه العملية. لكن هذا لا يتفق مع السجلات الأنثروبولوجية للذكاء البشري ؛ توفر الاستثمارات في ضبط الدماغ والطفرات قدرات معرفية محسنة. نحن نعلم ، لأن علم الوراثة يخبرنا أن الطفرات ذات الاستجابة الإحصائية الصغيرة ليست ثابتة أثناء التطور.

ولم يحتاج الإنسان إلى دماغ أكبر بشكل كبير من الشمبانزي. ولم يكن رأس جون فون نيومان أكبر بكثير من رأس الشخص العادي.

من وجهة نظر عملية بحتة ، تنقل المحاور البشرية المعلومات بسرعة أقل من مليون مرة من سرعة الضوء ، وحتى من وجهة تبديد الحرارة ، تستهلك كل عملية متشابكة مليون مرة أكثر من الحد الأدنى للتبديد الحراري لعملية ثنائية لا رجعة فيها عند 300 كلفن ، وهكذا. لماذا يجب أن نفترض أن برنامج الدماغ أقرب إلى الحد الأمثل من الحديد؟ امتياز الذكاء البشري هو أنه أصغر مستوى من الذكاء قادر على إنشاء جهاز كمبيوتر. إذا كان من الممكن إنشاء جهاز كمبيوتر بمستوى ذكاء أقل ، فسنناقشه على مستوى أقل.

لكن هذه ليست حجة بسيطة ، وللحصول على وصف مفصل ، أرسل أشخاصًا إلى أحد أعمالي القديمة ، "الاقتصاد الجزئي في انفجار الذكاء" ، والذي للأسف لا يزال يعمل كأفضل مصدر للمعلومات. ولكن هذه الأسئلة بالتحديد هي التي يجب طرحها من أجل استخدام الأدلة المتاحة لمناقشة ما إذا كنا سنشهد انفجارًا للذكاء الاصطناعي حيث سيؤدي تحسن معين في القدرات المعرفية المستثمرة في التحسين الذاتي إلى زيادة أكثر من هذا التحسن.

أما بالنسبة للفرص وأسعارها:

فبإمكانك أن تتخيل عالماً بلا انفجار ذكاء وبدون ذكاء خارق. أو عالم حيث الحيل التي سيستخدمها خبراء التعلم الآلي للتحكم في الذكاء الاصطناعي الفائق مناسبة للسيطرة على الناس والنظام الخارق. أو عالم تعمل فيه الباطنية الأخلاقية، لذا فإن جميع الذكاء الاصطناعي المتقدم جدًا جيدة. في مثل هذه العوالم ، لا يحتاج أي شخص إلى كل العمل وكل مخاوف معهد بحوث التعلم الآلي. وتم إهدار عدة ناموسيات ، وكان من الأفضل إعطائها للصندوق لمكافحة الملاريا.

يمكنك أيضًا تخيل عالم تكافح فيه الملاريا ، وتحارب وتبقي انبعاثات الكربون عند المستوى المناسب ، أو تستخدم حلول الهندسة الجيولوجية لتحييد الأخطاء التي تم ارتكابها بالفعل. وتبين أن كل هذا عديم الفائدة ، لأن الحضارة غير قادرة على حل مشكلة أخلاق الذكاء الاصطناعي - وكل الأطفال الذين تم إنقاذهم من الملاريا بمساعدة الشباك يكبرون فقط حتى تقتلهم الآلات النانوية في المنام.

أعتقد أن الأشخاص الذين يحاولون الانخراط في أعمال خيرية معقولة سيوافقون على أننا لا نرغب في العيش في أي من هذه العوالم. السؤال الوحيد هو أيهما أكثر احتمالا. المبدأ الأساسي للعقلانية هو عدم رفض الإيمان بالعفاريت ، لأنه غبي وغير مرموق ، وعدم الإيمان بالعفاريت ، لأنها صحية وجميلة. المبدأ الأساسي للعقلانية هو أي العلامات التي يمكن ملاحظتها والاستنتاجات المنطقية ستساعدنا في اختيار أحد هذين العالمين.

أعتقد أن العالم الأول غير مرجح ، والثاني محتمل. أفهم أن محاولة إقناع الآخرين بهذا تحاول السباحة ضد تدفق الإيمان بالحياة الأبدية. الاعتقاد بأن حضارتنا قصيرة المدى ، والتي كانت موجودة منذ عدة عقود ، وفقط جنسنا ، الذي لا يوجد سوى لحظة على النطاقين التطوري والجيولوجي ، هو المعنى ويجب أن يكون موجودًا إلى الأبد. وعلى الرغم من أنني أعتقد أن العالم الأول هو مجرد حلم متفائل ، إلا أنني لا أعتقد أننا بحاجة إلى تجاهل المشكلة ، والتي سوف نشعر بالذعر بشأنها في المستقبل. تتمثل مهمة المعهد في إجراء البحوث اليوم ، والتي كان يجب أن تبدأ قبل 30 عامًا ، وفقًا للأشخاص الذين يعيشون بعد 30 عامًا.

X: هل تؤمن زوجتك بريجينا بالتفرد؟

Brijena: إذا سألني شخص ما إذا كنت أؤمن بالخصوصية ، فسأرفع حاجبًا وسألت إذا كان يؤمن بالشاحنات الآلية. هذا سؤال غريب. لا أعرف ما هو الأسطول الأول من الشاحنات الأوتوماتيكية ، أو كم من الوقت سيستغرقها لاستبدال نظام نقل البضائع الحالي. وأنا لا أعتقد أنني أؤمن بالشاحنات الآلية ، أتوقع بكل ثقة أن النقل بدون طيار سيحل محل النقل الحديث بمشاركة الناس ، لأننا نسير في هذا الاتجاه إذا لم يحدث شيء غريب حقًا. للسبب نفسه ، أتوقع بثقة انفجار المخابرات. بمعنى آخر لكلمة "التفرد" ، لست متأكدًا من ذلك.

Yu: أعطتها بريجينا إجابتها دون رؤية إجاباتي. انها مجرد أننا مناسبون لبعضنا البعض.

X:هل من الممكن خلق ذكاء خارق دون فهم كيفية عمل الدماغ؟

Yu: بالمعنى نفسه الذي يمكنك من صنع الطائرات دون فهم كيف يطير طائر. لا تحتاج إلى أن تكون خبيرًا في الطيور ، ولكن في نفس الوقت تحتاج إلى الكثير من المعرفة لبناء طائرة ، بعد الحصول على أي منها ، من حيث المبدأ ، يمكنك بالفعل فهم مدى ارتفاع الطائر أو صده من الهواء. لذلك ، أنا أكتب عن العقلانية البشرية - إذا ذهبت بعيدًا بما فيه الكفاية في مسألة الذكاء الآلي ، لا يمكنك إلا التفكير في بعض الأفكار حول كيفية تفكير الناس.

X: ما الذي يريده الذكاء الفائق؟ هل سيكون لديهم شيء مثل الرغبة الجنسية؟

يو:فكر في مساحة واسعة من الاحتمالات ، في مجال عملاق متعدد الأبعاد. هذه مساحة من أنواع العقل ، مجموعة من جميع الخوارزميات المعرفية الممكنة. تخيل أنه في مكان ما في الجزء السفلي من الكرة الأرضية توجد نقطة صغيرة تشير إلى جميع الأشخاص الذين عاشوا على الإطلاق. هذه نقطة صغيرة ، لأن جميع الناس لديهم نفس الدماغ تقريبًا ، مع القشرة ، المخيخ ، المهاد ، إلخ. بعض الناس ليسوا مثل الآخرين ، لذلك يمكن أن تكون نقطة شائكة ، لكن المسامير ستكون على نفس مقياس النقطة نفسها. بغض النظر عن النمط العصبي الخاص بك ، فلن تعمل على خوارزمية قشرية أخرى.

السؤال "ما الذي يريده الذكاء الفائق" هو ​​السؤال الخاطئ. الذكاء الخارق ليس قبيلة غريبة من الناس الذين يعيشون على الجانب الآخر من النهر ولديهم عادات غريبة. الذكاء الاصطناعي هو ببساطة اسم المساحة الكاملة للإمكانيات خارج نقطة بشرية صغيرة. مع المعرفة الكافية ، يمكنك الصعود إلى هذه المساحة من الاحتمالات والخروج من هناك AI التي لديها الرغبات التي يمكن وصفها بلغة بشرية من قبل Wishlist ، ولكن ليس لأنها ستكون قائمة الرغبات الطبيعية لهذه الأشياء الخارقة الغريبة ، ولكن لأنك عزلت جزءًا واحدًا من مساحة أنواع العقل .

فيما يتعلق بالرغبات الجنسية - إذا كنت تعرف بالضبط ما تفعله ، فقد قمت بحل المشكلة الرئيسية لبناء الذكاء الاصطناعي ، وتريد بثبات أشياء معينة أثناء تحسنها ، إذا كنت قد حللت المشكلة الرئيسية المتمثلة في توجيه الوظائف النفعية للذكاء الاصطناعي إلى المهام التي تبدو بسيطة بشكل مخادع بالنسبة لشخص ما ، و المشكلة الأكثر تعقيدًا هي بناء الذكاء الاصطناعي باستخدام نوع معين من الهندسة المعمارية ، حيث تكون أشياء مثل "الرغبات الجنسية" و "السعادة من الجنس" أمرًا مهمًا ، ثم ربما يمكنك جعل الذكاء الاصطناعي ينظر إلى الأشخاص الذين يصممون تكون رغباتهم ، واستخراج هذا الجزء منهم فيما يتعلق بالرغبة الجنسية ، وجعل تجربة الذكاء الاصطناعي عليه.

بالطبع ، يمكنك أيضًا ، مع معرفة جيدة بالبيولوجيا العضوية والديناميكا الهوائية ، بناء طائرات يمكنها التزاوج مع الطيور.

لكنني لا أعتقد أنه كان ينبغي على الأخوين رايت أن يفعلوا مثل هذه الأشياء في فجر أنشطتهم. هذا لن يكون منطقيا

يبدو من المنطقي أكثر حل مشكلة اختراق مساحة العقول واستخراج الذكاء الاصطناعي من هناك لا يريد تفكيكنا إلى ذرات احتياطية.

X: أريد أن أعتقد أن المخلوقات غير الذكية ستدعي اللاعنف لأنها ستفهم أن العنف غبي. هل أنا ساذج؟

Yu: أعتقد ذلك. ديفيد هيومأود أن أقول لك إنك ترتكب خطأً نموذجيًا من خلال تطبيق "الغباء" المسند إلى القيم أو العمليات الرسمية للفرد. يمكن أن تكون الإجراءات والخيارات والقواعد غبية إذا كان لديك أي تفضيلات حول الحالة النهائية للعالم. إذا كنت شخصًا لديه تفضيلات meta لم تقم بحسابها بالكامل ، فقد يكون لديك نظام أساسي يمكنك الاعتماد عليه وتسمية بعض التكهنات حول تفضيلات الكائن "غبية".

Staple maximizer [ تجربة فكرية توضح كيف يمكن للذكاء الاصطناعي الذي تم إنشاؤه بدون نية خبيثة أن يضر البشرية - تقريبًا. perev.] لا يرتكب خطأً حسابياً ، باختيار تلك الحالات من تلك التي يتم الحصول على الحد الأقصى لعدد المواد الغذائية فيها. إنه ليس داخل نظام التفضيلات الخاص بك ، واختيار الإجراءات الخاطئة ، وليس داخل نظام التفضيل التلوي الخاص بك ، واختيار التفضيلات عن طريق الخطأ. يحسب الإجابة على سؤال آخر ، وليس على السؤال الذي تطرحه على نفسك السؤال "ماذا علي أن أفعل؟" يقوم المكبر الأساسي باتخاذ الإجراء المؤدي إلى معظم المواد الغذائية.

السيناريو القاتل هو عندما لا يحبك الذكاء الاصطناعي ولا يكرهك ، لأنك مصنوع من ذرات يمكن استخدامها لإنشاء شيء آخر. نظرية اللعبة ومشكلات التعاون في معضلة السجينلا تظهر نفسها في جميع الحالات الممكنة. على سبيل المثال ، لا تظهر عندما يكون موضوع معين أقوى منك بكثير لدرجة أنه يمكن أن يجعلك في الذرات عندما تريد النقر على زر "التعاون" أو "التغيير". وعندما نتخطى هذه العتبة ، إما أنك قمت بحل مشكلة إنشاء شيء لا يريد أن يؤذيك ، أو أنك خسرت بالفعل.

X: هل سيحل الذكاء الفائق مشكلة الوعي الصعبة ؟

Yu: نعم ، وبالنظر إلى الوراء ، ستبدو الإجابة بسيطة بشكل مخجل بالنسبة لنا.

X: هل تتمتع المخابرات الخارقة بالإرادة الحرة؟

Yu: نعم ، ولكن لن يكون لديهم وهم الإرادة الحرة.

X: كيف تبدو اليوتوبيا؟

Yu: سأوجه قراءك إلى الأعمال المتعلقة بالألغام " ", , - .

Source: https://habr.com/ru/post/ar404137/


All Articles