هل سنعطي الروبوتات العسكرية رخصة للقتل؟

مع تحسن الروبوتات الحربية لمنظمة العفو الدولية ، يتغير جوهر الحرب


الصورةفي عام 1920 ، كتب الكاتب التشكيلي Karel Čapek مسرحية RUR (Robum's Universal Robots ، "Rossum Universal Robots") ، حيث أعطى العالم كلمة "robot". في مسرحيته ، يبدأ كل شيء بأشخاص اصطناعيين - روبوتات تعمل في المصانع وتنتج سلعًا رخيصة الثمن. وينتهي كل ذلك بحقيقة أن الروبوتات تدمر البشرية. لذلك ولدت مؤامرة NF طويلة الأمد: الروبوتات تخرج عن نطاق السيطرة وتتحول إلى آلات قتل لا يمكن إيقافها. يستمر الأدب والسينما في القرن العشرين بتزويدنا بأمثلة من الروبوتات التي تدمر العالم ، وتحولها هوليوود باستمرار إلى امتيازات ضخمة: The Matrix و Transformers و Terminator.

في الآونة الأخيرة ، يتم دعم الخوف من تحويل الخيال إلى حقيقة من خلال مجموعة من الظروف ، من بينها التحسينات في الذكاء الاصطناعي والروبوتات ، وانتشارطائرات بدون طيار العسكرية و الروبوتات الأرض في العراق وأفغانستان. تقوم القوى الكبرى بتطوير أسلحة ذكية بدرجات متفاوتة من الاستقلالية والوفيات. سيسيطر الناس على معظمهم قريبًا عن بعد ، والذين بدون أمرهم لن يتمكن الروبوت من الضغط على الزناد. لكن ، على الأرجح - ووفقًا للبعض ، حتى بدون شك ، ستتمكن الروبوتات في مرحلة ما من العمل بشكل مستقل تمامًا ، وسيتم تشغيل Rubicon في الشؤون العسكرية: لأول مرة ، ستقرر مجموعة من الرقائق الدقيقة والبرامج ما إذا كان الشخص يعيش أو يموت.

ليس من المستغرب أن يؤدي خطر الروبوتات القاتلة ، كما أطلقوا عليها بحنان ، إلى نقاش عاطفي. على الجانب الآخر من النزاع ، أولئك الذين يخشون من أن الأسلحة الآلية ستبدأ حربًا عامة وتدمر الحضارة ، وأولئك الذين يدعون أن الأسلحة الجديدة ليست سوى فئة أخرى من الأسلحة الموجهة بدقة التي ستقلل عدد الضحايا بدلاً من زيادته. في ديسمبر ، ستناقش أكثر من مائة دولة هذه القضية في اجتماع الناتو لنزع السلاح في جنيف.

الصورة
طائرة بدون طيار يتحكم فيها الإنسان

الصورة
يطلق مدفع Phalanx بشكل مستقل في

العام الماضي ، وقعت مثل هذه المناقشة في الأخبار عندما دعت مجموعة من كبار الباحثين في منظمة العفو الدولية إلى حظر "الأسلحة الهجومية المستقلة التي تعمل بدون سيطرة بشرية ذات مغزى". في رسالة مفتوحة إلى مؤتمر دولي حول الذكاء الاصطناعي ، أشارت مجموعة من الباحثين إلى أن مثل هذه الأسلحة يمكن أن تؤدي إلى سباق تسلح دولي للذكاء الاصطناعي ويمكن استخدامها في عمليات القتل بعقود ، وزعزعة استقرار الدول ، وقمع الشعوب ، والتدمير الانتقائي للجماعات العرقية.

تم توقيع الرسالة من قبل أكثر من 20000 شخص ، بما في ذلك شخصيات مشهورة مثل الفيزيائي ستيفين هوكينج ورجل الأعمال إيلون موسك. وقد تبرعت الأخيرة بمبلغ 10 ملايين دولار لمعهد بوسطن العام الماضي.، تشارك في حماية أرواح الناس من التهديد الافتراضي لمنظمة العفو الدولية غير ودية. قام العلماء الذين نظموا الكتابة - ستيوارت راسل من جامعة كاليفورنيا في بيركلي ، ماكس تيجمارك من معهد ماساتشوستس للتكنولوجيا وتوبي والش من جامعة نيو ساوث ويلز في أستراليا - بتوسيع موقفهم في مقال لمجلة IEEE Spectrum. على سبيل المثال ، في أحد السيناريوهات ، "يمكن قتل عدد كبير من الروبوتات الصغيرة منخفضة التكلفة التي يمكن أن يضعها شخص واحد في السوق السوداء ، وسيتمكن الآلاف أو الملايين من الأشخاص المطابقين لمعايير المستخدم من القتل".

وأضافوا أن "الأسلحة المستقلة يمكن أن تصبح أسلحة دمار شامل. "قد تحظر بعض الدول استخدامه ، بينما من غير المحتمل أن تتمكن دول أخرى ، وبالطبع الإرهابيين ، من التخلي عنه".

لا يمكن القول إن سباق التسلح الجديد ، الذي قد يؤدي إلى آلات قتل ذكية ومستقلة ومتنقلة ، سيخدم مصلحة البشرية جمعاء. ومع ذلك ، فقد بدأ هذا السباق بالفعل.

الأسلحة الذاتية موجودة منذ عدة عقود ، على الرغم من أن عيناتها النادرة استخدمت حتى الآن بشكل أساسي للدفاع. أحد الأمثلة هو Phalanx ، وهو مسدس يتم التحكم فيه بواسطة الكمبيوتر يوجهه الرادار ويتم تركيبه على سفن حربية تابعة للبحرية الأمريكية. يمكنها اكتشاف وتتبع وتقييم وإطلاق النار على الصواريخ والطائرات التي تقترب ، والتي تعتبرها تهديدًا. في وضع مستقل تمامًا ، لا تكون المشاركة البشرية مطلوبة على الإطلاق.


طائرة بدون طيار تدمر الهدف


تُظهر DoDAAM Systems قدرات ساعة الروبوت Super aEgis II

مؤخرًا ، بدأ المطورون العسكريون في إنشاء روبوتات هجومية مستقلة. الشركة اسرائيل صناعات الفضاء وتصنيع الطائرات بدون طيار هاربي وHarop، الذي يؤدي إلى موجات الراديو أنظمة الدفاع الجوي للعدو، وقتلهم من قبل الاصطدام. تدعي الشركة أن طائراتها بدون طيار تباع بشكل جيد في جميع أنحاء العالم.

قامت شركة DoDAAM Systems الكورية الجنوبية بتطوير ساعة الروبوت Super aEgis II. يطلق النار بمدفع رشاش ، ويستخدم رؤية الكمبيوتر لكشف وإطلاق النار على الأهداف (الأشخاص) على مسافة 3 كم. ويُزعم أن الجيش الكوري الجنوبي أجرى اختبارات لهذه الروبوتات في المنطقة المجردة من السلاح على الحدود مع كوريا الشمالية. DoDAAM بالفعلباعت 30 مثل هذه الأجهزة إلى دول أخرى ، بما في ذلك العديد من العملاء من الشرق الأوسط.

في الوقت الحاضر ، الأنظمة ذات درجة عالية من الاستقلالية قليلة العدد مقارنة بالأسلحة الروبوتية التي يسيطر عليها الناس طوال الوقت تقريبًا ، وخاصة أثناء إطلاق النار. يتوقع المحللون أنه مع تطور الشؤون العسكرية ، سيكون للأسلحة المزيد والمزيد من القدرات الذاتية.

قال بيتر سينجر ، خبير الروبوتات العسكرية في المجموعة غير السياسية في نيو أمريكا ومقرها واشنطن: "ستكون الحرب مختلفة تمامًا ، وستلعب الأتمتة دورًا حيث السرعة مهمة". سيقرأ أنه في المعارك المستقبلية - كما هو الحال في المعارك بين الطائرات بدون طيار المختلفة ، أو عندما تلتقي سفينة آلية بغواصة آلية - فإن السلاح الذي يحتوي على جزء من ميزة ثانية سيقرر نتيجة المعركة. "قد يكون هناك صراع مفاجئ ومكثف حيث لن يكون هناك ببساطة وقت لتحديث الناس ، لأن كل شيء سيتم البت فيه في غضون ثوان." وصف

الجيش الأمريكي خططه طويلة المدى لشن نوع جديد من الحرب باستخدام أنظمة غير مأهولة ، ولكن ما إذا كان ينوي تسليح هذه الأنظمة لا يزال غير معروف. مفعّلةوأشار منتدى واشنطن بوست في مارس ، وزير الدفاع الأمريكي روبرت وورك ، الذي تتمثل مهمته في ضمان مواكبة البنتاغون لأحدث التقنيات ، إلى الحاجة إلى الاستثمار في الذكاء الاصطناعي والروبوتات. ووفقا له ، فإن الوجود المتزايد للأنظمة المستقلة في ساحة المعركة "أمر لا مفر منه".

فيما يتعلق بالأسلحة المستقلة ، يصر وورك على أن الجيش الأمريكي "لن يمنح الآلة السلطة لاتخاذ قرارات قاتلة". لكنه أضاف بنفسه أنه "إذا بدا الخصم مستعدًا لنقل هذه السلطات ... فسيتعين علينا اتخاذ قرارات بشأن قضية المنافسة معه. لم نكتشفها بعد بشكل كامل ، لكننا نفكر كثيرًا في هذا الأمر. "


يشاهد فلاديمير بوتين سايبورغ العسكري على مركبة ATV خلال مظاهرة العام الماضي




تلتزم الرحلة الأولى لطائرة CH-5 UAV التابعة للشركة الصينية لعلوم وتكنولوجيا الفضاء الصينية وروسيا والصين باستراتيجية مماثلة في تطوير أنظمة قتالية بدون طيار للعمليات في البر والبحر والجو ، والتي ، على الرغم من كونها مسلحة ، لا تزال تعتمد على المشغلين الأحياء. منصة روسية Platform-M هي روبوت صغير مزود بجهاز تحكم عن بعد ومجهز ببندقية كلاشنيكوف وقاذف قنابل. إنه يشبه نظام Talon SWORDS الأمريكي ، وهو روبوت أرضي قادر على حمل M16 وأسلحة أخرى تم اختبارها في العراق. قامت روسيا أيضًا ببناء مركبة غير مأهولة Uranus-9 ، مسلحة بمدفع 30 ملم وصواريخ موجهة مضادة للدبابات. وفي العام الماضي ، أظهر الروس روبوتًا عسكريًا بشريًا لبوتين.

ترسانة الصين المتزايدة من الروبوتات العسكرية تشمل العديد من الطائرات بدون طيار للهجوم والاستطلاع. CH-4 - طائرة بدون طيار طويلة المفعول ، تذكرنا بطائرة بريداتور الأمريكية. Divine Eagle - طائرة بدون طيار على ارتفاعات عالية لصيد القاذفات الشبح. بالإضافة إلى ذلك ، تم عرض روبوتات بمدافع رشاشة مماثلة للمنصة- M و Talon SWORDS في عروض عسكرية مختلفة في الصين.

تقترب هذه البلدان الثلاثة من إنشاء روبوتات مسلحة ، وتزيد من استقلاليتها ، وفي الوقت نفسه تؤكد على الحفاظ على دور الناس في عملهم. ستظهر مشكلة خطيرة بالنسبة للحظر على الأسلحة المستقلة: لن تنطبق بالضرورة على الأسلحة المستقلة تقريبًا. يمكن للجيش دائمًا تطوير الروبوتات المسلحة التي يسيطر عليها الناس ، ولكن بمجرد لمسة زر ، انتقل إلى وضع عدم الاتصال. ويختتم Wendell Wallach ، خبير الأخلاقيات والتكنولوجيا في جامعة Yale قائلاً: "سيكون من الصعب جدًا على الروبوتات فرض اتفاقية للحد من الأسلحة". وقال في مؤتمر "إن الفرق بين الأسلحة المستقلة وغير المستقلة يمكن أن يكون مجرد سطر واحد من الكود".

في الأفلام ، تصبح الروبوتات في بعض الأحيان مستقلة بشكل مدهش ، حتى تكتسب الوعي من الصفر تقريبًا ، الأمر الذي يفاجئ الناس . في العالم الحقيقي ، على الرغم من الإثارة العامة لتقدم التعلم الآلي ، فإن الروبوتات تكتسب استقلالية تدريجية. ويمكن توقع الشيء نفسه من الأسلحة المستقلة.

مختارات من الروبوتات القاتلة



الصورة
«R.U.R» 1920 – ,

الصورة
«2001: » (1968). ,

الصورة
« » (1973).

الصورة
« » (1982). -

الصورة
«» (1984). - -800

الصورة
(1987). – , .

الصورة
(1999).

الصورة
« » (2004). , ,

الصورة
أنا ، روبوت (2004). الروبوتات البشرية ، تجاوز القوانين الثلاثة للروبوتات ، تسبب مشاكل في

الصورة
محولات شيكاغو (2007). تحاول عصابة من الروبوتات الأجنبية بقيادة ميجاترون إبادة جميع البشر.

"في كثير من الأحيان ، عندما يسمع الناس عن الأسلحة المستقلة ، فإنهم يمثلون المنهي ويبدأون بالقول ،" ماذا فعلنا؟ "يقول بول شير ، مدير برنامج الشؤون العسكرية المستقبلية في مركز مجموعة الأبحاث الأمنية الأمريكية الجديدة في واشنطن. "لكن من غير المرجح أن يرغب الجيش في القيام بهذا النوع من الأسلحة المستقلة". ووفقا له ، على الأرجح ، ستهاجم الأنظمة المستقلة المنشآت العسكرية مثل الرادارات والدبابات والسفن والغواصات والطائرات.

إن مهمة تحديد الهدف - تحديد ما إذا كان الجسم ينتمي إلى العدو - هي واحدة من المهام الأكثر أهمية للذكاء الاصطناعي. الأهداف المتحركة ، والطائرات والصواريخ ، لها مسار يمكن تتبعه واتخاذ قرار على أساسه بمحاولة إسقاط شيء ما. هذه هي الطريقة التي يعمل بها مدفع Phalanx على السفن الحربية الأمريكية ، وكذلك نظام اعتراض صواريخ القبة الحديدية الإسرائيلية. ولكن عندما يتم اختيار الأشخاص كهدف ، يكون هذا التحديد معقدًا. حتى في الظروف المثالية ، يمكن أن تكون مهام التعرف على الأشياء والبيئات التي يتعامل معها الناس طوال الوقت معقدة للغاية بالنسبة للروبوتات.

يمكن للكمبيوتر أن يميز شخصية الشخص ، حتى لو كان يتحرك خلسة. ولكن من الصعب على الخوارزمية أن تفهم ما ينشغل به الناس وما هي النوايا التي تعطيها لغة جسدهم وتعبيرات وجههم. هل يرفع الرجل مسدسا أو أشعل النار هل يحمل قنبلة أم طفل؟

يدعي سكار أن الأسلحة الآلية ، التي تحاول اختيار هدف بمفردها ، ما عدا الصعوبات. في رأيه ، فإن أفضل نهج ، من وجهة نظر السلامة والشرعية والأخلاق ، يبقى تطوير مثل هذه التكتيكات والتقنيات التي يعمل فيها الناس مع الروبوتات معًا . ويقول: "يمكن للجيش أن يستثمر في الروبوتات والأتمتة المتقدمة ، ولكن في نفس الوقت يترك الشخص في سلسلة التحكم لاتخاذ قرارات بشأن الأهداف ، ليكون آمنًا". "بعد كل شيء ، الناس أكثر مرونة وأفضل للتكيف مع المواقف الجديدة التي قد لا نبرمجها. هذا مهم بشكل خاص في الحرب حيث يوجد خصم يحاول هزيمة أنظمتك ، والخداع والاختراق ".

ليس من المستغرب أن ينتج الكوريون الجنوبيون من DoDAAM روبوتات ساعاتهم مع قيود ذاتية شديدة. الآن لن تقوم روبوتاتهم بإطلاق النار حتى يؤكد الشخص الهدف ويأمر "بإطلاق النار". وقال مهندس شركة لبي بي سي العام الماضي: "كانت النسخة الأصلية عبارة عن نظام إطلاق نار أوتوماتيكي" . "لكن جميع العملاء طلبوا دمج إجراءات السلامة فيه ... كانوا قلقين من أن البندقية قد تكون خاطئة."

يعتقد خبراء آخرون أن الطريقة الوحيدة لتجنب الأخطاء القاتلة لسلاح مستقل ، وخاصة إشراك المدنيين ، هي وضع البرامج المناسبة. يقول رونالد أركين ، من قسم تكنولوجيا المعلومات: "إذا كنا أغبياء للغاية لدرجة أننا نواصل قتل بعضنا البعض في ساحة المعركة ، وإذا تم نقل المزيد والمزيد من القوى إلى الآلات ، فهل يمكننا على الأقل التأكد من أنهم يقومون بعملهم بطريقة أخلاقية". متخصص من معهد التكنولوجيا في جورجيا.

آركين واثق من أن الأسلحة المستقلة ، مثل الجنود ، يجب أن تتبع قواعد الحرب وقوانين الحرب ، بما في ذلك القوانين الإنسانية الدوليةحماية المدنيين والحد من قوة وأنواع الأسلحة المسموح بها. هذا يعني أنه يجب علينا إدخال بعض الصفات الأخلاقية في برامجهم حتى يفهموا مواقف مختلفة ويميزون بين الخير والشر. يجب أن تحتوي برامجهم على نوع من البوصلة الأخلاقية.

على مدى السنوات العشر الماضية ، كانت أركين تعمل على مثل هذه البوصلة. باستخدام أدوات الرياضيات والمنطق من مجال أخلاقيات الآلة ، يترجم قوانين الحرب وقواعد الحرب إلى متغيرات وعمليات يمكن فهمها على جهاز الكمبيوتر. على سبيل المثال ، يحتوي أحد المتغيرات على قيمة الثقة لوحدة التحكم الأخلاقية بأن الهدف هو عدو. آخر ، منطقي ، يعني ما إذا كانت قوة قتل الأسلحة مسموح بها أو محظورة. في النهاية ، جاء Arkin إلى مجموعة معينة من الخوارزميات ، وبمساعدة المحاكاة الحاسوبية وسيناريوهات المعارك المبسطة - على سبيل المثال ، الطائرات بدون طيار تهاجم مجموعة من الناس في مجال مفتوح - كان قادرًا على اختبار أسلوبه.

يعترف أركين بأن المشروع الذي ترعاه القوات المسلحة الأمريكية لم يصل بعد إلى مرحلة النظام النهائي ، وتم إنشاؤه فقط لإثبات قابليته للتشغيل. ولكن ، في رأيه ، تظهر نتائج العمل أن الروبوتات أفضل حتى من البشر يمكن أن يتبعوا قواعد الحرب. على سبيل المثال ، يمكن للروبوتات تنفيذ إجراءات تهدد الحياة مع ضبط النفس أكثر من البشر ، وإطلاق النار استجابة فقط. أو مع اقتراب المدنيين ، يمكنهم بشكل عام وقف إطلاق النار ، حتى لو تم تدميرهم هم أنفسهم. لا تعاني الروبوتات من الإجهاد وعدم الرضا والغضب والخوف - وكل هذا يمكن أن يضر بتبني القرارات الصحيحة في الناس. لذلك ، من الناحية النظرية ، يمكن أن تتجاوز الروبوتات الجنود البشر ، الذين يرتكبون أخطاء في كثير من الأحيان ، وأحيانًا حتمًا ، في خضم المعركة.

يقول أركين: "نتيجة لذلك ، يمكننا إنقاذ الأرواح ، لا سيما أرواح الأبرياء المحاصرين في معركة. وإذا فعلت الروبوتات ذلك ، فإن الأخلاق توحي بالحاجة إلى استخدامها".

بالطبع ، هذا الرأي غير مقبول بشكل عام. النقاد تصر الأسلحة المستقلة على أن الحظر الاستباقي فقط هو المعقول ، لأن مثل هذه الأسلحة تظهر خلف الكواليس ، وتقول ماري ويرهام ، "لا يوجد نظام نار من هذا القبيل يمكننا أن نشير إليه ونقول: نعم ، إنه روبوت قاتل". مدير اللوبي لـ هيومن رايتس ووتش وكور منسق حملة لحظر الروبوتات القاتلة ( حملة لالقاتل الروبوتات توقف) - تحالفات المجتمعات الإنسانية المختلفة. - نحن نتحدث عن العديد من أنظمة الأسلحة المختلفة التي تعمل بطرق مختلفة. لكننا قلقون بشأن واحدة من سماتهم المشتركة - انعدام السيطرة البشرية على وظيفة اختيار الهدف والهجوم ".

في الأمم المتحدة ، استمرت المناقشات بشأن الروبوتات المستقلة القادرة على القتل لمدة خمس سنوات ، لكن الدول لم تتوصل إلى اتفاق. في عام 2013 ، كتب كريستوف هاينز ، مقرر الأمم المتحدة الخاص لحقوق الإنسان ، تقريرًا مؤثرًاحيث أشار إلى أن الدول لديها فرصة نادرة لمناقشة مخاطر الأسلحة المستقلة حتى قبل تطويرها. الآن ، بعد أن شاركت في العديد من اجتماعات الأمم المتحدة ، يقول هاينز "إذا نظرت إلى الوراء ، فإنني أشعر بالتشجيع إلى حد ما ، ولكن إذا نظرت إلى الأمام ، يبدو أننا سنواجه مشاكل إذا لم نبدأ التحرك بشكل أسرع." ستستضيف اتفاقية الأمم المتحدة بشأن الأسلحة الكلاسيكية في

ديسمبر / كانون الأول مؤتمرا يستعرض العمل لمدة خمس سنوات ، ومسألة الروبوتات المستقلة مدرجة على جدول الأعمال. ولكن من غير المرجح أن يتم قبول حظرهم. سيتطلب مثل هذا القرار قرارًا بالإجماع من جميع البلدان ، وهناك خلاف أساسي بينهما حول ما يجب القيام به مع مجموعة واسعة من الأسلحة المستقلة التي ستظهر في المستقبل.

ونتيجة لذلك ، فإن الخلافات حول الروبوتات القاتلة تعود إلى مناقشة الناس. ستكون الأسلحة المستقلة ، في البداية على الأقل ، مشابهة لأي تقنية: يمكن إدخالها بدقة وحكمة ، أو بشكل فوضوي وكارثي. وسيتعين على الناس قبول الرسوم. لذلك ، فإن السؤال "هل الروبوتات القتالية المستقلة فكرة جيدة؟" ليس الصحيح. من الأفضل أن تسأل السؤال: "هل نثق في أنفسنا بما فيه الكفاية لنثق في الروبوتات في حياتنا؟"

Source: https://habr.com/ru/post/ar395139/


All Articles