
منذ أن بدأت الشركات في تطوير المركبات الآلية ، بدأ الناس في طرح الأسئلة حول كيفية قيام المصممين بحل
المشكلات الأخلاقية ، مثل من يجب أن يقتل الروبوت في حالة وقوع حادث لا مفر منه. تشير
دراسة حديثة إلى أن هذا السؤال قد يكون من الصعب الإجابة عنه أكثر من السابق ، حيث أن التفضيلات الأخلاقية للناس تختلف في بلدان مختلفة.
طور الباحثون في جامعة هارفارد ومعهد ماساتشوستس للتكنولوجيا لعبة على الإنترنت تحاكي المواقف التي يكون فيها وقوع حادث مع الضحايا أمرًا لا مفر منه. وقد أجروا مقابلات مع 40 مليون شخص من 200 دولة ، وعرضوا اختيار خيارات مختلفة لكيفية إنهاء مثل هذه الحوادث ، على سبيل المثال ، ما إذا كان ينبغي على ركاب السيارات أو المشاة أن يموتوا.
ونتيجة لذلك ، تم اكتشاف ثلاث مجموعات ثقافية ذات تفضيلات أخلاقية مختلفة إلى حد كبير. على سبيل المثال ، في المجموعة الجنوبية (التي تضم معظم أمريكا اللاتينية والمستعمرات الفرنسية السابقة) ،
يفضل معظمهم أن يجنبوا النساء على حساب الرجال. في المجموعة الشرقية (التي شملت العديد من الدول الإسلامية ، الصين ، اليابان وكوريا) ، كان الناس أقل عرضة للتصويت لإنقاذ الشباب على حساب كبار السن.
وخلص الباحثون إلى أن هذه المعلومات يجب أن تؤثر على قرارات مطوري أجهزة الروبوت. لكن هل يجب؟ هذا العمل ، الذي يسلط الضوء على الاكتشاف المثير للاختلافات العالمية في التفضيلات الأخلاقية ، يُظهر أيضًا سوء فهم مستمر بشأن الذكاء الاصطناعي وقدراته. بالنظر إلى المستوى الحالي لتقنية الذكاء الاصطناعي المستخدمة في المركبات الآلية ، من الواضح أن الآلة غير قادرة على اتخاذ قرارات أخلاقية.
الخيال من "الآلات الأخلاقية"
يتم تدريب Robomobiles على اتخاذ قرارات بشأن وقت التوجيه ومتى يتباطأ ، وذلك باستخدام نوع خاص من الذكاء الاصطناعي ، المعروف أيضًا باسم "
الذكاء الاصطناعي (الضيق) الضيق "
، والذي يركز على مهمة واحدة شديدة التخصص. تم تطويرها باستخدام أجهزة استشعار مختلفة ، وكاميرات ، وأشعة الليزر rangefinding (lidars) التي توفر المعلومات لجهاز كمبيوتر مركزي. يستخدم الكمبيوتر AI لتحليل بيانات الإدخال واتخاذ القرارات.
على الرغم من أن هذه التقنية بسيطة اليوم ، ونتيجة لذلك ، يمكن أن تتفوق السيارات على شخص في أبسط المهام المرتبطة بقيادة السيارة. ولكن سيكون من غير الواقعي الاعتقاد بأن السيارات الآلية يجب أن تكون قادرة على اتخاذ القرارات الأخلاقية ، والتي حتى أكثر الأشخاص الأخلاقية لن يكون لديهم وقت في حالة وقوع حادث. إذا كنا نريد هذا من سيارة ، فسوف تحتاج إلى برمجة الذكاء الاصطناعي
للأغراض العامة (IION).
أيون ما يعادل جعلنا بشرا. إنها فرصة للحديث أو الاستمتاع بالموسيقى أو الضحك على شيء ما أو الحكم على الأخلاق. الآن أصبح من
المستحيل عمل IION بسبب تعقيد الفكر الإنساني والعواطف. إذا طلبنا إنشاء سيارات مستقلة ذات أخلاق ، فسوف يتعين علينا الانتظار عدة عقود ، حتى لو كان ذلك ممكنًا على الإطلاق.
هناك مشكلة أخرى في الدراسة الجديدة وهي الطبيعة غير الواقعية للعديد من المواقف التي يقيمها المشاركون. في أحد السيناريوهات ، تم
حل "
مشكلة العربة " المعروفة ، وسُئل المشاركون عن الجهة التي يجب أن تتحرك السيارة عند فشل المكابح: ثلاثة ركاب (رجل وامرأة وطفل) أو ثلاثة من كبار السن (رجلان عجوزان وامرأة عجوز).
يمكن للناس التفكير مليا في مثل هذه القضايا عن طريق ملء استبيان. لكن في معظم حوادث الحياة الواقعية ، لن يتوفر للسائق الوقت الكافي لاتخاذ مثل هذا القرار في كسور الثانية التي سيحدث لها. لذلك ، المقارنة غير صحيحة. نظرًا للمستوى الحالي لتقنية الذكاء الاصطناعي المستخدمة في المركبات الآلية ، لن تتمكن هذه المركبات أيضًا من اتخاذ مثل هذه القرارات.
يتيح Narrow AI للأجهزة الآلية إصدار أحكام بسيطة حول الكائنات المحيطةتتمتع أجهزة robomobile الحديثة بقدرات إدراك معقدة للعالم ، ويمكنها تمييز المشاة عن الأشياء الأخرى ، مثل إنارة الشوارع أو إشارات المرور. ومع ذلك ، يعتقد مؤلفو الدراسة أن أجهزة الروبوت يمكنها ، وربما تحتاج إلى إجراء اختلافات أعمق. على سبيل المثال ، يمكن أن يقدروا درجة فائدة بعض الأشخاص في المجتمع ، على سبيل المثال ، الأطباء أو الرياضيين ، وقرروا إنقاذهم في حالة وقوع حادث.
والحقيقة هي أنه لتنفيذ مثل هذا المنطق المعقد ، ستحتاج إلى إنشاء IION ، وهو أمر
مستحيل اليوم. بالإضافة إلى ذلك ، ليس من الواضح ما إذا كان ينبغي القيام بذلك على الإطلاق. حتى لو كان من الممكن جعل برنامج الجهاز فرصة لتقرير من الذي يجب إنقاذه ، أعتقد أنه يجب ألا يُسمح لنا بذلك. يجب ألا نسمح للأفضليات التي تحددها الدراسة ، بغض النظر عن حجمها الكبير ، بتحديد قيمة الحياة البشرية.
بشكل أساسي ، تم تصميم أجهزة الجوال لتجنب الحوادث قدر الإمكان أو لتقليل سرعة التصادم. رغم أنهم ، مثل الأشخاص ، لن يكونوا قادرين على اتخاذ قرارات تستند إلى الأخلاق في حالة حدوث تصادم وشيك. ومع ذلك ، ستكون السيارات الآلية
أكثر أمانًا من السيارات التي يقودها الأشخاص ، وستكون أكثر انتباهاً ، وستكون سرعة رد فعلها أعلى ، وستكون قادرة على استخدام الإمكانات الكاملة لنظام الفرامل.
حتى الآن ، فإن أكبر مشكلة أخلاقية في مجال السيارات الآلية هي ما إذا كان قد تم جمع أدلة كافية في محاكاة سلوكهم الآمن من أجل أن يكونوا قادرين على إطلاق السيارات الآلية في الشوارع. لكن هذا لا يعني أنها ستكون "أخلاقية" ، أو ستكون قادرة على أن تصبح كذلك في المستقبل القريب. أن نقول العكس هو الخلط بين القيادة الضيقة لمنظمة العفو الدولية ، مع IION ، والتي ربما لن تظهر خلال حياتنا.
في نهاية المطاف ، ستكون السيارات الآلية أكثر أمانًا من البشر. سيتم تحقيق ذلك بفضل تصميمها والقدرة على تجنب الحوادث بكل قوتها ، أو لتقليل الضرر في حالة الحتمية. ومع ذلك ، لا يمكن للآلات اتخاذ قرارات أخلاقية حيث لا يمكننا ذلك. لا تزال هذه الفكرة خيالية ، ويجب ألا تأمل فيها. بدلاً من ذلك ، نحن نركز على الأمن: الإيمان به سيكون مبررًا.