伊隆·马斯克(Elon Musk)反对自动致命武器

图片

许多著名技术公司的负责人企业家伊隆·马斯克(Ilon Musk)以他对人工智能危害的观点而闻名。 当然,他之所以出名,不仅是因为这种观点。 但是,自2014年以来,他一直反对创建强大的AI形式。 然后,他首次公开宣称人工智能可能很危险。 Stephen Hawking和其他许多科学家,未来学家和IT专家都同意他的观点。 人们认为,全人类可能成为技术奇异的受害者。

根据Mask的说法,最危险的是制造自主“智能”武器的趋势。 根据企业家的说法,“杀手机器人”出现的风险非常高,因此有必要尽可能谨慎地处理此问题。 专家们坚信,“第三次军备革命”已经接近尾声,而自主的“杀手机器人”就是潘多拉魔盒的一种。 解决这个问题的时间很少。

大约一周前,马斯克与来自各个科学技术领域的115位著名专家共同签署了一封公开信的作者要求联合国尽快解决这一问题。

这封信是在墨尔本举行的国际人工智能国际联合会议(IJCAI 2017)上签署的。 顺便说一下,在DeepMind Mustafa Suleiman的签署者和创始人中,还有开发Alpebar机器人的Aldebaran Robotics公司负责人Jerome Monce。 如果技术进步负责人的公司负责人在这封信上签字,那么这个问题可能真的值得考虑。

信中特别指出,人工智能和机器人技术的发展速度如此之快,以使用自主武器(包括机器人)发动战争的可能性越来越大。 而且,这是未来几年的事情,而不是像以前认为的那样几十年。 因此,现在有必要考虑技术如何影响人类的命运。 而且,首先,技术正在尽可能积极发展的国家的领导人应该考虑这一点。

可能会增加这种技术的威胁​​,使这些技术落入恐怖分子和独裁者的手中,他们将毫不re悔地向普通百姓发送致命的工具。 即使可以避免这种情况,仍然存在黑客入侵系统的威胁,而且它完全非零。 黑客已经反复证明,无论“一切”受到的保护程度如何,几乎所有东西都可以被黑客入侵。

已经有以自主或半自主模式运行的致命武器的发展。 其中就是这种设备。



这张照片只是为了演示在未来的战争中武器如何配备机器人。 但是现在已经有无人机在空中飞行,能够以自动模式工作。 而且这些船都配备了自动追踪可能威胁的自动加农炮。

出于各种原因,各国政府不同意科学家和技术人员的观点。 对于国家来说,主要的自主武器是有益的。 如果发生局部或区域冲突,它可以提高边境保护的效力或减少士兵的死亡人数。 因此,在2015年,英国政府反对禁止使用自动致命武器。 此外,这种武器的开发在这里非常活跃。

好吧,Element AI的创始人Joshua Benggio的声明很好地说明了科学家反对自动“杀手机器人”的观点:“我签署了一封公开信,因为在自动武器系统中使用AI违反了我对道德的理解,所有这些都会导致非常危险的升级,影响AI开发的整个范围。 这种情况应在国际社会的控制下采取,就像其他类型的武器(生物,化学,核武器一样)也是如此。”



这封信说:“致命的自主武器的创造使我们能够将战争扩大到前所未有的规模,这是难以想象的。” 而且,这封信的作者也许是正确的。




Source: https://habr.com/ru/post/zh-CN406273/


All Articles