军用无人机非常“智能”,有些无人机不时操作操作员,其余时间则由他们自己执行任务人工智能技术正在迅速发展。 专家们教给AI很多东西,现在它的薄弱形式(强大,幸运或不幸的是尚未创建)在工业,航运,娱乐和许多其他行业中起作用。 但是军事事务呢? 是的,在这里也使用了AI,因为可以对火箭或飞行器的轨迹,敌人的行动,制定自己的策略进行预测分析-人工智能可以应对所有这些问题。
但是,如果您将任何级别的AI集成到武器中,会变得更有效吗? 它很可能会变得非常有生产力。 但是这里已经出现了道德问题。 机器可以控制人的命运吗? 许多技术专家认为并非如此。 这些“许多”最近签署了一项宣言-一种承诺,将永远不参与智能武器的开发。
参与创建和签署声明的其他专家包括Elon Musk,DeepMInd的代表和许多其他公司的员工,在这些公司中,人工智能问题以一种或另一种方式提出。 根据在备忘录下留下签名的一组科学家和企业家的说法,应由另一人决定是否杀死该人,而不是机器。 这一决定的重担落在了做出决定的人的肩膀上。
在机器的情况下,没有道德上的犹豫-例如,该系统已派人值守,以在战争期间梳理乡间道路,并且在计算单元告知
良心时将其击落。 专家认为,开发具有AI元素的智能武器可能成为任何国家及其公民的不稳定因素。
关于在武器生产中使用人工智能的宣言的文本在斯德哥尔摩举行的国际人工智能联合会议(IJCAI)会议之后发表。 它是由未来生活研究所组织的。 他正在研究人类生存的风险。 该研究所此前呼吁放弃制造智能致命武器的想法。 现在,这种想法已经得到理解,并开始广泛传播。
签署者包括SpaceX和Tesla的负责人Ilon Musk,Google子公司DeepMind的三位联合创始人,Skype的创建者Jaan Tallinn以及世界著名的人工智能技术研究人员Stuart Russell,Joshua Benggio,Jurgen Schmidhuber。

单独的签署国指出,他们的共同倡议应在放弃智能致命武器方面从言传身行。 不,没有人要组织一场革命,主要任务是表明任何类型武器逐渐智能化的危险。 “独立决定要杀死谁的武器是一种令人恶心且不稳定的想法,就像生物武器一样。 智能武器的想法应与生物武器一样对待。”
但是,这里有一个困难。 事实是,将真正自主和“智能”的武器与非真正的武器区分开是非常困难的。 幽灵线。 当常规高科技武器不再愚蠢时,变得更加明智,并开始决定谁活着,谁杀死? 自动炮塔通过热辐射跟踪人员的外表-是否可以使用这种武器? 如果自动对准同一炮塔,并且有人按下扳机,智能武器与常规武器之间有很大区别吗?
此外,该宣言本身已经很晚了-大约30个不同的国家都配备了致命的系统,这些系统无论有无延伸,都可以称为聪明。
顺便说一句,一个有趣的事实是,当Google的开发人员听说公司将为五角大楼开发自动系统时,他们
反叛了。 即-具有AI的非致命性无人机。
说到智能武器及其未来,人们不禁会想起一个科幻小说的故事(作者和名字,不幸的是,我不记得了),那里派出了一个智能头,其智力水平类似于一个5岁孩子,完成了一项任务。 但是当她接近敌人的基地时,她发现那里的人和她自己的基地一样。 意识到这一点,她决定向创作者汇报所有事情,然后进行返程飞行。 故事的最后一个事实是,火箭飞入了创造者居住的房屋的窗户,但出于明显的原因,它没有时间讲任何事情。