إذا قتل الروبوت شخصًا ، فمن سيكون مذنبا؟
إذا كنت تبحث عن علامات على نهاية العالم الوشيكة التي ستدفعها الروبوتات ، انظر إلى المنطقة المنزوعة السلاح بين كوريا الشمالية والجنوبية. هنا ، على طول الحدود المحصنة في العالم ، أكثر من مجرد الجنود تحت المراقبة.تعرف على SGR-A1 ، روبوت الساعات الذي طورته شركة Samsung في كوريا الجنوبية. تبدو الوحدة التي يبلغ قطرها 1.2 متر أكبر بقليل من زوج من صناديق الأحذية المعدنية السوداء ، لكن عيونها الخالية من الروح والمجهزة بمنافذ الأشعة تحت الحمراء يمكنها اكتشاف العدو حتى أربعة كيلومترات. مدفعه الرشاش جاهز.
في الوقت الحالي ، يقوم الروبوت بإخطار مبدعيه بوجود مهاجمين مشتبه بهم جالسين في غرفة التحكم. ولكي يفتح النار ، فإن موافقة الإنسان ضرورية. لكن هذا الروبوت يعمل أيضًا في الوضع التلقائي ويمكنه إطلاق النار أولاً حسب تقديره. المقاومة ، أيها البشر ، عديمة الفائدة.يقوم البنتاغون والجيش في جميع أنحاء العالم بتطوير سلاح مستقل بشكل متزايد يتجاوز بكثير الطائرات المسيرة التي يتم التحكم فيها عن بعد والتي تستخدمها واشنطن في باكستان وأفغانستان ودول أخرى. سيسمح التقدم التكنولوجي لهذه الأنواع الجديدة من الأسلحة بتحديد هدف وإطلاق النار عليه من اختيارهم دون موافقة بشرية. يتوقع البعض أن هذه الروبوتات ستقاتل يومًا ما جنبًا إلى جنب مع الجنود البشر.من غير المستغرب أن أخبار الروبوتات التي تقتل تجعل بعض الناس متوترين. في أبريل من هذا العام ، أطلق تحالف دولي من المصممين والعلماء والمدافعين عن حقوق الإنسان حملة ضد إنشاء الروبوتات القاتلة وناشد دبلوماسيي الأمم المتحدة في جنيف. يريد النشطاء حظر تطوير واستخدام "أسلحة ذاتية الحكم القاتلة" ، على الرغم من أنهم يدركون أن هذه الأسلحة ، على الرغم من أنها ممكنة من الناحية التكنولوجية ، لم يتم استخدامها مطلقًا. "من المنطقي طرح سؤال: هل ستنخفض قيمة الحياة البشرية من حقيقة أن الروبوتات مسموح لها بقتل الناس؟" قال بيتر أسارو ، الأستاذ المساعد بكلية الدراسات الإعلامية في نيويورك والمتحدثة باسم حملة القاتل الروبوتات.هذا مجرد سؤال واحد كان الفلاسفة والباحثون القانونيون والعلماء يناضلون معه منذ زمن سحيق ، بينما يستعد العالم لهجوم الروبوتات الجديدة ، التي يقال لنا أنها سوف جز العشب ، ورعاية كبار السن ، وتعليم الأطفال المصابين بالتوحد ، وحتى قيادة سياراتنا. لا يمكن لهذه الروبوتات أن تقتل ، لكن مسؤولي المرور يريدون إجبار الحكومات والمحاكم على النظر في عدد من القضايا القانونية والأخلاقية. من الذي يجب أن أقاضيه إذا تعرضت لضرب سيارة بدون سائق؟ ماذا لو أعطى الروبوت الطبي للمريض الدواء الخاطئ؟ ماذا أفعل إذا قامت مكنسة كهربائية روبوتية بامتصاص شعري عن طريق الخطأ بينما كنت أغفو على الأرض (كما حدث بالفعل لامرأة في كوريا الجنوبية منذ وقت ليس ببعيد)؟ هل يمكن للروبوت أن يرتكب جريمة حرب؟هذا هو السؤال الأخير الذي يقلق البروفيسور أسارو. يدعي هو وأعضاء آخرون في ائتلاف هيومن رايتس ووتش أنه إذا قام نظام حاسوب مستقل مبرمج لتمييز جنود العدو عن المدنيين فعليًا بالضغط على الزناد دون "موافقة بشرية" ، فسيكون من الصعب جدًا إبقاء الوضع تحت التحكم إذا حدث خطأ ما.إذا اصطدم روبوت بقرية بأكملها وقتلها ، فلا يمكنك وضع شيء جامد أمام المحكمة الجنائية الدولية أو تسليمه إلى محكمة عسكرية ميدانية. ويقول بعض الخبراء أنه لا يمكنك إلقاء اللوم بشكل قانوني حتى على مطوري الروبوت إذا لم يفترضوا أن الروبوت قد يصاب بالجنون. في القانون الجنائي ، يجب على المحاكم أن تجد ما يعرف باسم الجرمية ، أو إرادة المذنب (من اللاتينية). لكن من غير المحتمل أن يجدوا معلومات تفيد بأن الروبوت ، مع المستوى الحالي لتطور الذكاء الاصطناعي ، لديه إرادة من حيث المبدأ. قد يتحمل مصممو الروبوت المسؤولية إذا تم اكتشاف أن الروبوت خارج نطاق السيطرة بسبب عطل في البرنامج. ومع ذلك ، قد لا تتم محاسبتهم على أفعال الروبوت القاتل.يمكن أن تبدو هذه الروبوتات القاتلة مثل أي شيء من الطائرات بدون طيار ذاتية الحكم إلى المركبات الآلية الآلية بالبنادق الآلية. في توجيه عام 2012 ، قضت وزارة الدفاع الأمريكية بأن الأنظمة المستقلة "يجب أن تصمم بحيث يمكن للقادة والمشغلين ممارسة مستويات مناسبة من السيطرة البشرية على استخدام القوة". ردا على رسالة بريد إلكتروني من سؤال من The Globe and Mail ، قالت وزارة الدفاع الوطني الكندية أن "سلاحا قاتلا مستقلا لا يتم تطويره" ، ولكن وكالتهم البحثية تشارك بنشاط في "برنامج بحث في أنظمة بدون طيار".عارضت شركة واحدة على الأقل من الروبوتات ، وهي شركة واترلو ، وهي شركة Clearpath Robotics التي تتخذ من أونتاريو مقراً لها ، الروبوتات القاتلة ، على الرغم من إنشاء الروبوتات للجيش الكندي والأمريكي. قال ريان غاريبي ، المؤسس المشارك لـ ClearPath وكبير مسؤولي التكنولوجيا ، إن إزالة الألغام أو المراقبة ، ولكن ليس القتل ، كان استخدامًا جيدًا للروبوتات القتالية المستقلة ، خاصة إذا كانت هذه الآلات موجودة على جانب واحد فقط من المعركة: "هل يمكن للروبوتات تحديد من يتحمل "حكم الإعدام؟ هل يحق للشخص أن يقتل جنود العدو بهذه الطريقة؟"حتمًا ، تدور مناقشة الروبوتات القاتلة حول "قوانين الروبوتات الثلاثة" من قصص كاتب الخيال العلمي إسحاق أسيموف. يحظر القانون الأول الروبوتات من إيذاء البشر. والثاني يأمرهم بإطاعة الناس فقط إذا كان هذا لا يتعارض مع القانون الأول ؛ والثالث يأمر الروبوتات بحماية حياتهم - بشرط ألا يخالف القانونين الأولين. لكن معظم الخبراء يقولون إن هذه القوانين لن تكون ذات فائدة تذكر في العالم الحقيقي: حتى أسيموف يُظهر عيوبها في قصصه. ومع ذلك ، يدعي البروفيسور رونالد أركين من معهد جورجيا للتكنولوجيا ، وهو مصمم روبوت أمريكي معروف يعمل في مشاريع البنتاغون ، أنه يمكن برمجة الروبوتات القاتلة أو أنظمة الأسلحة الآلية الأخرى لاتباع قوانين الحرب - واتباعها بشكل أفضل من البشر . يقول إن الروبوت لن يطلق النار أبداً للدفاع عن حياته أو خوفاً من ذلك. سيكون لديه إمكانية الوصول إلى المعلومات والبيانات التي لا يمكن لأي جندي بشري معالجتها بهذه السرعة ، مما يجعل الخطأ في خضم المعركة أقل احتمالا. لن يقتل المدنيين عمداً انتقاما لمقتل رفيقهم. ويمكنه حقاً مراقبة الجنود حتى لا يرتكبوا فظائع.يدعي البروفيسور أركين أيضًا أن التكنولوجيا المستقلة موجودة بالفعل في ساحة المعركة. ووفقًا له ، فإن بطاريات صواريخ باتريوت الأمريكية تحدد الأهداف تلقائيًا وتعطي شخصًا يصل إلى تسع ثوان لإلغاء الهدف وإيقاف الصاروخ. ونظام Phalanx التابع للبحرية الأمريكية يحمي السفن بإسقاط الصواريخ تلقائيًا.ولكن حتى أنها تتطلب وقفاً اختيارياً لتطوير أسلحة أكثر استقلالية طالما أنه يمكن إثبات أنها يمكن أن تقلل من الخسائر في صفوف المدنيين. "لا أحد يريد ظهور المنهي. من يريد أن يكون لديه نظام يمكن إرساله في مهمة ، وسوف يقرر بشكل مستقل من الذي يجب قتله؟ - يقول البروفيسور أركين. "يجب تطوير هذه الأنظمة بعناية شديدة وحذر ، وأعتقد أن هناك طرقًا للقيام بذلك."في الآونة الأخيرة ، أصبحت شركات التكنولوجيا الكبرى قلقة بشكل متزايد بشأن الذكاء الاصطناعي. حذر الفيزيائي ستيفن هوكينج من أن ظهور الذكاء الاصطناعي "قد يعني نهاية الجنس البشري". وصف إيلون ماسك ، مؤسس شركة تيسلا موتورز ، منظمة العفو الدولية بأنها "تهديد وجودي" - لا يقل خطورة عن الأسلحة النووية. كما يشعر بيل جيتس ، مؤسس شركة مايكروسوفت ، بالقلق.يقول الأشخاص الذين يعملون بحق على الذكاء الاصطناعي أن هناك شيئًا يدعو للقلق. يوشوا بينجيو ، أحد كبار الباحثين في مجال الذكاء الاصطناعي بجامعة مونتريال ، يشير إلى أن خيال حرب النجوم وستار تريك يبالغ بشكل كبير في قدرات الروبوتات والذكاء الاصطناعي. في يوم من الأيام ، يمكننا أن نبني آلات تنافس دماغ الإنسان. ولكن الآن لم يتم تطوير الذكاء الاصطناعي حتى الآن.يقول البروفيسور بينجيو: "يجب القيام بالمزيد قبل أن تصبح الروبوتات كما تراها في الأفلام. - ما زلنا بعيدين للغاية عن الحصول على مستوى فهم العالم الذي نتوقعه ، على سبيل المثال ، من طفل عمره خمس سنوات أو حتى شخص بالغ. ولتحقيق هذا الهدف ، قد يستغرق الأمر عقودًا أو أكثر. لا يمكننا حتى تكرار ذكاء مستوى الماوس.
بلا شك ، يسعى تطوير الأجهزة والبرامج للروبوتات باستمرار إلى الأمام.يمكن للروبوتات التي طورتها Boston Dynamics ، التي حصلت عليها Google مؤخرًا ، أن تتلاعب بالظروف عبر البلاد مثل الكلاب والزحف مثل الفئران في منطقة الكارثة. يمكن لكلب روبوت يدعى Spot الوقوف على قدميه بعد تعرضه للضرب وتبدو أرجلته المعدنية واقعية بشكل مخيف. ولكن إذا كنت تخشى أن تكون ثورة الروبوت القاتل أمرًا لا مفر منه ، فإن أطلس ، الروبوت البشري الذي يبلغ وزنه 330 رطلًا ، يمكن أن يساعدك على الهدوء. كما تم إنشاؤها بواسطة Boston Dynamics ، يمكنها صعود الدرج والحجارة. يبدو أن Cyberman من Doctor Who ، سلسلة طورتها Apple. ومع ذلك ، تستمر بطاريته ساعة واحدة فقط.يقول جان كير ، رئيس قسم الأخلاقيات والقانون والتكنولوجيا في جامعة أوتاوا ، يبدو أن الناس سيسيطرون تدريجيًا على الآلات ذات الذكاء الاصطناعي - أجهزة الكمبيوتر التي ستؤدي في النهاية بعض الأشياء بشكل أفضل مما نقوم به. على الرغم من أن الأمر سيستغرق بعض الوقت قبل ظهور السيارات التي لا تحتاج إلى سائق ، حتى الآن هناك بالفعل سيارات يمكنها ركنها بمفردها. IBM Watson Robot من International Business Machines Corp. ، التي فازت في مسابقة Jeopardy! في عام 2011 ، يتم استخدامه حاليًا لتحليل ملايين صفحات البحث الطبي للتوصية بإجراءات لمرضى السرطان.— ... - , , , , , - . — , , , … , , .
Source: https://habr.com/ru/post/ar381437/
All Articles