الطائرات بدون طيار العسكرية "ذكية" للغاية ، وبعضها لا يشغل إلا عامل الهاتف من وقت لآخر ، وبقية الوقت الذي يؤدون فيه المهمة بمفردهتقنيات الذكاء الاصطناعي تنمو بسرعة. قام المتخصصون بتدريس الذكاء الاصطناعي كثيرًا ، والآن شكله الضعيف (قوي ، لحسن الحظ أو لسوء الحظ لم يتم إنشاؤه بعد) يعمل في الصناعة والشحن والترفيه والعديد من الصناعات الأخرى. ولكن ماذا عن الشؤون العسكرية؟ نعم ، يستخدم الذكاء الاصطناعي هنا أيضًا ، لأن التحليل التنبئي لمسار الصاروخ أو المركبة ، وأعمال العدو ، وتطوير استراتيجيتها الخاصة - يمكن للذكاء الاصطناعي أن يتكيف مع كل هذا.
ولكن ماذا لو صنعت الذكاء الاصطناعي من أي مستوى في سلاح ، ألن يصبح أكثر فعالية؟ على الأرجح ، سيصبح ، وسيكون "منتجًا" للغاية. ولكن هنا تظهر أسئلة الأخلاق بالفعل. هل تستطيع الآلة التحكم في مصير الناس؟ يعتقد العديد من خبراء التكنولوجيا أنه ليس كذلك. وقد وقع هؤلاء "الكثيرين" مؤخرًا على إعلان - وهو نوع من الوعد بعدم المشاركة أبدًا في تطوير الأسلحة الذكية.
من بين المتخصصين الآخرين الذين
شاركوا في إنشاء الإعلان وتوقيعه كان Elon Musk ، وممثلو DeepMInd وموظفو العديد من الشركات الأخرى ، حيث يتم إثارة مشكلات الذكاء الاصطناعي بطريقة أو بأخرى. وفقا لمجموعة من العلماء ورجال الأعمال الذين تركوا توقيعاتهم بموجب المذكرة ، فإن الأمر متروك للشخص الآخر ليقرر ما إذا كان سيقتل الشخص أم لا ، وليس الآلة. وعبء هذا القرار يقع على عاتق من صنعه.
في حالة الآلة ، لا توجد ترددات أخلاقية - تم إرسال النظام في الخدمة ، على سبيل المثال ، لتمشيط طرق البلد أثناء الحرب ، ويطلق النار على الأعداء كما تخبر وحدة الحوسبة
الضمير . وفقًا للخبراء ، يمكن أن يصبح تطوير الأسلحة الذكية باستخدام عناصر الذكاء الاصطناعي عاملاً مزعزعًا للاستقرار لكل دولة ومواطنيها.
نُشر نص الإعلان المتعلق باستخدام الذكاء الاصطناعي في صنع الأسلحة بعد مؤتمر IJCAI (المؤتمر الدولي المشترك حول الذكاء الاصطناعي) الذي عقد في ستوكهولم. تم تنظيمه من قبل معهد مستقبل الحياة. إنه يدرس مخاطر الوجود البشري. سبق للمعهد أن دعا إلى التخلي عن فكرة صنع سلاح فتاك ذكي. الآن وجدت هذه الفكرة الفهم وبدأت في الانتشار على نطاق أوسع.
من بين الموقعين رئيس SpaceX و Tesla ، Ilon Musk ، المؤسسون الثلاثة لشركة Google DeepMind ، مبتكر Skype ، Jaan Tallinn ، بالإضافة إلى باحثي التكنولوجيا المشهورين عالميًا في الذكاء الاصطناعي Stuart Russell ، Joshua Benggio ، Jurgen Schmidhuber.

وأشار الموقعون بشكل منفصل إلى أن مبادرتهم المشتركة يجب أن تساعد في الانتقال من الأقوال إلى الأفعال من حيث التخلي عن الأسلحة الفتاكة الذكية. لا ، لن يقوم أحد بتنظيم ثورة ، فالمهمة الرئيسية هي إظهار خطر الفكر التدريجي للأسلحة من أي نوع. "إن السلاح الذي يقرر بشكل مستقل من يقتل هو فكرة مقرفة ومزعزعة للاستقرار ، مثل السلاح البيولوجي. يجب التعامل مع فكرة الأسلحة الذكية بنفس الطريقة التي تعامل بها الأسلحة البيولوجية ".
هنا ، ومع ذلك ، هناك صعوبة واحدة. والحقيقة هي أن التمييز بين سلاح مستقل وذكي "حقيقي" عن سلاح غير واحد أمر صعب للغاية. خط الأشباح. عندما تتوقف الأسلحة التقليدية عالية التقنية عن الغباء ، تزداد حكمة وتبدأ في تحديد من يبقى على قيد الحياة ومن يقتل؟ برج أوتوماتيكي يتتبع مظهر الأشخاص بالإشعاع الحراري - هل من الممكن استخدام مثل هذا السلاح؟ وهل هناك فرق كبير بين الأسلحة الذكية والأسلحة التقليدية ، إذا تم استهداف نفس البرج تلقائيًا ، وكان الشخص يضغط فقط على الزناد؟
بالإضافة إلى ذلك ، كان الإعلان نفسه متأخرًا - حوالي 30 دولة مختلفة مسلحة بأنظمة قاتلة ، والتي مع أو بدون امتداد ، ولكن يمكن تسميتها ذكية.
بالمناسبة ، حقيقة مثيرة للاهتمام هي أن مطوري Google
تمردوا حرفياً عندما سمعوا أن الشركة ستطور أنظمة مستقلة للبنتاغون. وهي - طائرة بدون طيار غير قاتلة مع AI.
بالحديث عن الأسلحة الذكية ومستقبلهم ، لا يسع المرء إلا أن يتذكر قصة الخيال العلمي (المؤلف والاسم ، للأسف ، لا أتذكر) ، حيث تم إرسال رأس حربي معقول بمستوى ذكاء مثل مستوى طفل عمره 5 سنوات لإكمال المهمة. ولكن عند الاقتراب من قاعدة العدو ، وجدت أن الناس يعيشون هناك ، كما هو الحال في قاعدتها. بعد أن أدركت ذلك ، قررت الإبلاغ عن كل شيء إلى خالقها وذهبت في رحلة عودة. تنتهي القصة بحقيقة أن الصاروخ يطير إلى نافذة المنزل حيث يعيش خالقه ، ولكن لأسباب واضحة ليس لديه وقت لإخبار أي شيء.