هل من الممكن إدخال الأخلاق في خوارزمية الروبوتات؟

بالنسبة للقتل الذي ارتكبته سيارة آلية ، سيتم الحكم على البرنامج (والمبرمجين)


الصورةعام 2034. يتجول رجل مخمور على الرصيف ليلاً ، يتعثر ويسقط أمام السيارة الآلية ، التي تضربه وتقتله على الفور. إذا كان هناك شخص خلف عجلة القيادة في السيارة ، فسيتم التعرف على الموت على أنه حادث ، لأن الخطأ يقع على المشاة ، ولن يتمكن أي سائق من تفاديه. لكن معايير "السائق العادي" (مصطلح " الشخص المعقول موجود في التشريعات الأجنبية ) اختفت في عشرينيات القرن العشرين ، عندما قلل انتشار السيارات الآلية من عدد الحوادث بنسبة 90٪. الآن علينا أن نتحدث عن "الروبوت العادي".

تقاضي عائلة الضحية مُصنِّع المركبات الآلية ، قائلة إنه على الرغم من أن السيارة لم يكن لديها وقت للفرملة ، إلا أنها يمكن أن تدور حول أحد المشاة ، وتعبر صلبة مزدوجة وتصطدم بروبوت قادم. إن إعادة بناء الحادث على أساس أجهزة استشعار المركبات الروبوتية يؤكد ذلك. يسأل محامي المدعي ، وهو يستجوب مطور برامج سيارات رائد ،: "لماذا لم تترك السيارة؟"

اليوم ، لا تسأل المحكمة السائقين لماذا فعلوا شيئاً أو لم يفعلوا. القضية قابلة للنقاش ، حيث أن الشخص مخطئ - يمكن للسائق أن يصاب بالذعر ، وليس التفكير في الأمر ، يتفاعل مع الغرائز. ولكن عندما يقود الروبوت السيارة ، فإن السؤال هو "لماذا؟" مقبول تماما. المعايير الأخلاقية للناس ، والتي لم يتم توضيحها جيدًا في القوانين ، تقدم العديد من الافتراضات المختلفة التي لم يصل إليها المهندسون ببساطة. أهمها - يمكن للشخص أن يفهم عندما تحتاج إلى الانحراف عن نص القانون من أجل الحفاظ على روحه. يحتاج المهندسون الآن إلى تعليم الآلات والروبوتات الأخرى كيفية اتخاذ قرارات ذكية.

بدأت حوسبة عملية التحكم في السبعينيات ، عندما ظهرت أنظمة المكابح المانعة للانغلاق . الآن كل عام هناك تطورات مثل التوجيه الأوتوماتيكي والتسارع الأوتوماتيكي والكبح في حالات الطوارئ. يُسمح بالفعل باختبار الماكينات الأوتوماتيكية بالكامل ، وإن كان ذلك بمشاركة سائق بشري ، في بعض الأماكن في بريطانيا وهولندا وألمانيا واليابان. في الولايات المتحدة ، يسمح به القانون في أربع ولايات ومقاطعة كولومبيا ، وعلى الأقل ليس محظورًا في البقية. تدعي جوجل ونيسان وفورد أن السيارات الآلية ستظهر في 5-10 سنوات.

تقوم السيارات الأوتوماتيكية بجمع المعلومات البيئية من أجهزة الاستشعار - كاميرات الفيديو وأجهزة تحديد المدى بالموجات فوق الصوتية والرادارات و Lidars. في كاليفورنيا ، يُطلب من الأجهزة الآلية تزويد وزارة النقل بجميع بيانات المستشعر قبل 30 ثانية من أي تصادم تراكم بالفعل بما فيه الكفاية - بما في ذلك التصادم الذي تسببه آلة Google . يُمنح المهندسون الفرصة لاستعادة الأحداث في منطقة التصادم بدقة إلى حد ما ، باستخدام سجلات لما يمكن للآلة التقاطه ، والبدائل التي تراها ، ومنطق السلوك. يمكن جعل الكمبيوتر يكرر منطقه - الطريقة التي يمكن أن يُطلب بها جعل الشخص الذي لعب اللعبة أو محاكي القيادة.

سيتمكن المنظمون والمتقاضون من الحفاظ على معايير السلامة فوق البشرية للمركبات الآلية ، ودراسة التصادمات التي ستحدث على أي حال - وإن كان ذلك نادرًا. سيحمي المصنعون والمبرمجون إجراءات منتجاتهم بطريقة لم يحلم بها السائقون اليوم.

تمثل القيادة دائمًا خطرًا ، وتحتوي القرارات المتعلقة بتوزيعها بين السائقين والمشاة وراكبي الدراجات والممتلكات على مكون أخلاقي. بالنسبة للمهندسين وكذلك لجميع الأشخاص ، من المهم أن يزن نظام صنع القرار في الماكينة العواقب الأخلاقية لأفعاله.

الصورة
الصورة
اصطدام سيارة جوجل بحافلة

الرد المعتاد على المواقف الغامضة أخلاقيا هو اتباع القانون مع تقليل الضرر. إن الإستراتيجية جذابة - فهي لا تسمح للمطور بالدفاع بسهولة عن تصرفات السيارة ("لقد اتبعنا القانون بالكامل") ، ولكنها أيضًا تنقل المسؤولية في تحديد الأخلاقيات إلى المشرعين. لسوء الحظ ، فإنه يضع الكثير من العبء على القانون.

على سبيل المثال ، في معظم الولايات ، يعتمد القانون على الحس السليم للسائقين ، ويقول القليل عن السلوك قبل التصادم. في المثال الموصوف ، فإن السيارة ، التي تتبع بدقة نص القانون ، لا تعبر المادة الصلبة المزدوجة ، وتخاطر بخطر الاصطدام بسكر - على الرغم من وجود سيارة روبوت فارغة فقط على الجانب الآخر من الطريق. نادرًا ما يضع القانون استثناءات في حالات الطوارئ المحددة مثل سقوط شخص على الطريق - وإذا فعل ذلك ، كما هو معتاد ، على سبيل المثال ، في ولاية فرجينيا ، فإن نص القانون يشير إلى أن عبور مادة صلبة مزدوجة أمر قانوني حتى تحطم السيارة ("إذا كان من الممكن القيام بهذه الحركة بأمان"). في هذه الحالة ، سيتعين على المطورين أن يقرروا - في أي الحالات سيكون من الآمن عبور المادة الصلبة المزدوجة.

نادراً ما تكون سيارة Robomobile متأكدة بنسبة 100٪ من أن الطريق فارغ ويمكنك عبور متانة مزدوجة دون خوف. سيقيم مستوى الثقة عند 98٪ أو 99.99٪. سيحتاج المهندسون إلى أن يقرروا مسبقًا مستوى الثقة الذي سيكون كافيًا لعبور مادة صلبة مزدوجة ، وكيف يمكن أن تختلف القيمة المقبولة اعتمادًا على ما تحاول السيارة الآلية تجنبه على الطريق - هل هو كيس بلاستيكي أو مشاة ساقط.

بالفعل ، تتخذ الأجهزة الآلية قرارات بشأن إمكانية مخالفة القانون. اعترف جوجلأن سياراته مسموح لها أن تتجاوز السرعة من أجل البقاء في التيار - حيث التباطؤ أمر خطير. يفضل معظم الناس تجاوز السرعة في المواقف المختلفة ، على سبيل المثال ، عند محاولة الاندفاع إلى المستشفى. كريس جيرديس [كريس جيرديس] وسارة ثورنتون من جامعة ستانفورد ضد التضمين الصارم للقوانين في خوارزميات صنع القرار ، لأن السائقين ينظرون إلى القوانين على أنها مرنة بما يكفي لتقييم تكلفة كسرها مقارنة بالمكاسب المحتملة في السرعة. لا أحد يريد الزحف بعد سائق دراجة لعدة كيلومترات بسبب حقيقة أن سيارتك ترفض الاتصال على الأقل بقليل للحصول على مادة صلبة مزدوجة.

وحتى في ظل القانون ، يمكن للسيارة الآلية اتخاذ العديد من القرارات الصغيرة الحساسة من وجهة نظر أمنية. عادة ، يبلغ عرض الممرات على الطريق السريع ضعف عرض السيارة النموذجية تقريبًا ، ويمكن للسائقين استخدام هذا العرض لتجنب القمامة ، أو الابتعاد عن قيادة السيارات بشكل غير متساو.

في براءة الاختراع لعام 2014 ، طورت Google هذه الفكرة وتصف كيفية وضع سيارة روبوتية على شريط لتقليل المخاطر. تقدم الشركة مثالاً على سيارة روبوت على طريق من ثلاث حارات مع شاحنة على اليمين وسيارة صغيرة على اليسار. لتحسين الأمان ، يجب أن يتحرك الروبوت الآلي قليلاً إلى اليسار ، أقرب في آلة صغيرة.

يبدو صحيًا ، وعادة ما يفعله الجميع - بوعي أو بغير وعي. لكن تثور أسئلة أخلاقية. عند التحرك نحو الآلة الصغيرة ، قللت السيارة الآلية من المخاطر ، لكنها وزعتها بشكل غير متساو. هل يجب على آلة صغيرة تحمل مخاطر أكبر لمجرد أنها صغيرة؟ إذا كانت مسألة تفضيل لسائق معين ، فلن يعني أي شيء. ولكن إذا تم إضفاء الطابع الرسمي على إعادة التوزيع هذه وتوسيعها لتشمل جميع الأجهزة الآلية ، فستكون العواقب أكثر خطورة.

في كل مثال ، تأخذ السيارة الآلية في الاعتبار عدة قيم - قيمة الكائن الذي يمكن أن تضربه وقيمة راكبها. يتخذ الناس القرارات بشكل غريزي ، وسيفعل الروبوت ذلك على أساس استراتيجية إدارة المخاطر المدروسة بعناية والتي تحدد الخطر على أنه مقدار الضرر الناتج عن حدث غير مرغوب فيه ، مضروبًا في احتمالية حدوثه.

في عام 2014 ، حصلت Google أيضًا على براءة اختراع لتطبيق إدارة المخاطر. تصف براءة الاختراع آلة قد تقرر إعادة البناء من أجل رؤية إشارة المرور بشكل أفضل. أو قد تقرر السيارة البقاء في الممر لتجنب خطر الاصطدام - على سبيل المثال ، بسبب المؤشرات من جهاز استشعار معيب - ولكن على حساب ذلك سيكون ضعف الرؤية الضوئية. يتم تعيين الاحتمالية نتيجة أي من القرارات ، وكذلك القيمة الإيجابية أو السلبية (الميزة أو الخسارة). يتم ضرب كل قيمة في الاحتمال ، ويمكن جمع القيم التي تم الحصول عليها. إذا كانت الفوائد تفوق الخسائر بدرجة كافية ، فستقوم الماكينة بالمناورة.

تكمن المشكلة في أن خطر الاصطدام صغير جدًا - يتعرض السائق العادي في الولايات المتحدة لحادث مرة كل 257000 كيلومتر ، أو مرة كل 12 عامًا ( في روسيا - مرة كل 1.6 سنة. ربما يرجع هذا الاختلاف إلى حقيقة أن الناس في الولايات المتحدة يسافرون كثيرًا على الطريق السريع - تقريبًا. لذلك ، حتى عند بدء تلقي تدفق ضخم من البيانات من الأجهزة الآلية عندما تخرج إلى الشوارع ، سنكون قادرين على الحصول على تقديرات لاحتمالات الأحداث المختلفة في وقت قريب جدًا.

تقدير تكلفة الضرر أكثر صعوبة. من السهل تقييم الأضرار التي تلحق بالممتلكات - تتمتع شركات التأمين بخبرة واسعة في هذا الشأن - ولكن الإصابات والوفيات أمر آخر. إن تاريخ الاستيلاء على حياة أي شخص بأي قيمة له سنوات عديدة ، وعادة ما يتم التعبير عنه في مقدار المال الذي يمكن إنفاقه لمنع الضحية المتوسطة. إن التحسن الأمني ​​، مع احتمال 1 ٪ لإنقاذ حياة 100 شخص ، هو ضحية واحدة في المتوسط. توصي وزارة النقل بإنفاق 9.1 مليون دولار لمنع وقوع إصابات. الرقم مشتق من بيانات التسويق ، بما في ذلك البدلات التي يحتاجها الناس للعمل الخطر والمبالغ التي يرغب الناس في إنفاقها على معدات السلامة - على سبيل المثال ، أجهزة إنذار الدخان. لا تحتاج إلى وزن الأمن فحسب ، بل أيضًا فقدان الحركة أو الوقت ،تنفق على الطريق ، والتي تقدرها الإدارة بمبلغ 26.44 دولارًا للساعة.

في الكلمات ، كل شيء يبدو جميلاً. لكن تقييم المخاطر في الأرواح المفقودة والوقت الذي يقضيه على الطريق لا يتضمن تقييمات أخلاقية مختلفة لكيفية تعريض الناس للخطر. على سبيل المثال ، يجب على السيارة الآلية ، التي تقيم حياة جميع الناس على قدم المساواة ، أن تعطي مساحة أكبر لراكب دراجة نارية بدون خوذة من دراجة نارية بكامل معداتها ، لأن الأول سيكون أقل احتمالًا للبقاء على قيد الحياة. ولكن هذا غير عادل - هل من الممكن معاقبة لرعاية سلامتك؟

فرق آخر بين أخلاقيات الروبوتات والبشر هو أن أخلاقيات الأولى يمكن أن يشوهها المبرمجون ، حتى لسبب وجيه. تخيل أن الخوارزمية قامت بتعديل حجم المنطقة العازلة للمشاة في مناطق مختلفة على أساس تحليل مقدار التعويض للمطالبات المقدمة من المشاة في حادث. فمن ناحية ، هو معقول وفعال وحسن النية. من ناحية أخرى ، قد تعتمد العقوبات الأصغر على متوسط ​​دخل الناس في منطقة معينة. ثم ستعاقب الخوارزمية الفقراء بإعطائهم منطقة عازلة أصغر ، وبالتالي تزيد قليلاً من خطر تعرضهم للإسقاط.

هناك إغراء لتجاهل أسئلة مثل الأسئلة الأكاديمية البحتة ، ولكن لا يمكنك الالتفاف عليها ، لأن البرامج تأخذ كل شيء حرفياً. سيكون عليك تقييم نتائج الإجراءات قبل أن يتم تنفيذها - في مرحلة التطوير ، وليس في مرحلة إنشاء تصحيحات للبرنامج.

ويرجع ذلك جزئيًا إلى ذلك ، يستخدم الباحثون مواقف افتراضية حيث يجب أن تختار الآلة بين شررين. واحدة من المهام الأكثر شهرة من هذا النوع هي مشكلة عربة.

يتم نقل عربة ثقيلة غير خاضعة للرقابة على القضبان. في طريقه ، هناك خمسة أشخاص مقيدين بالقضبان بواسطة فيلسوف مجنون. لحسن الحظ ، يمكنك تبديل السهم - وبعد ذلك سوف تسير العربة على طريق بديل مختلف. لسوء الحظ ، هناك شخص واحد على الجانب ، مرتبط أيضًا بالقضبان. ما هي أفعالك؟

هل ستضحي بحياة واحدة من أجل عدة؟ إذا لم يكن الأمر كذلك ، فبسبب تقاعسك ، سيظل الناس يموتون ، فكيف يمكنك التعامل مع هذا التناقض؟

تمت كتابة الكتب حول موضوعات مثل هذه التجارب ، وتسمح لك باختبار أنظمة بسيطة ومباشرة تتعامل مع القضايا الأخلاقية والعثور على المجالات التي قد يكون من الجيد الخوض فيها في بعض الفروق الدقيقة. لنفترض أننا قمنا ببرمجة سيارة آلية لتجنب المشاة بأي ثمن. إذا ظهر أحد المشاة فجأة في نفق ذي حارة ولم تتمكن السيارة من القيادة في الوقت المناسب ، فسيتعين عليها إيقاف تشغيل الحارة ، حتى إذا كانت في طريق حافلة مع الركاب. إن احتمال وقوع مثل هذا الحدث ليس بنفس أهمية المشكلة التي يكشف عنها في منطق سيارة الروبوت - أن التفوق المطلق لقيمة المشاة على جميع الأشخاص الآخرين الذين يستخدمون الطريق يمكن أن يكون خطيرًا للغاية.

الأخلاق في الروبوتات مهمة قابلة للحل. نحن نعلم ذلك لأنه في مناطق أخرى وجدنا بالفعل فرصة للتعامل مع نفس المخاطر والمزايا تقريبًا بأمان ومعقول. يتم توزيع الأعضاء المانحة على المرضى على أساس مقياس محسوب من سنوات الحياة المحتملة ونوعية معيشتهم. يتم إعفاء الناس من المهن الضرورية مثل المزارع والمعلم من الغواصات العسكرية.

مهام الروبوتات أكثر تعقيدًا. إنهم بحاجة إلى اتخاذ قرار سريع ، بناءً على معلومات غير كاملة ، في المواقف التي ربما لم يكن المبرمجون قد توقعوها باستخدام الأخلاقيات التي يجب تضمينها في الخوارزمية حرفياً أيضًا. لحسن الحظ ، لا يتوقع الناس منهم حكمة خارقة - فقط مبررًا عقلانيًا لأفعال آلة تقوم بتقييم القضايا الأخلاقية. لا ينبغي أن يكون الحل مثالياً - ولكنه مدروس وواحد يمكن حمايته.

Source: https://habr.com/ru/post/ar395143/


All Articles