插图在许多电影和科幻小说中,计算机系统已引起人们的注意并欺骗了其人类创造者。 在现实中这可能吗? 到目前为止,几乎没有什么值得关注的。
波士顿动力机器人的成功使
AlphaGo和
Libratus计划给我们留下了深刻的印象,但是所有已知的成就仅涉及狭窄的领域,而且还远未实现大规模销售。 在日常生活中,人们与伪智能助手(Siri,Okay,谷歌,亚马逊Alexa)互动,每一个都不称自己是真正“智能”程序的桂冠。
但是,人工智能设计的进步确实令人印象深刻。 而且,当AI成为影响社会过程的成熟工具的日子越近,积累的错误就越多,这表明有可能规避假想的“
机器人三定律 ”。
论文“系统越复杂-漏洞和错误越多”与AI问题直接相关。
当恐惧传到眼睛时

明智的俄罗斯谚语说,危险到处都是恐惧的人。 对人工生命的恐惧起源于数百年的恐怖原型。 甚至在维克多·弗兰肯斯坦(Victor Frankenstein)的故事和僵尸的故事出现之前,人们就对卡巴拉(Kabbalist)魔术师用粘土制成的魔像,生物产生了信仰。
害怕新的(和生活的)对于一个人来说是很正常的。 1978年,出现了一个
假设 ,即看起来或像人的机器人(或其他物体)(或不完全像真实的人)在人类观察者中引起敌意和厌恶。 该假设仅记录了经验:您面前的僵尸,魔像或机器人助手并不那么重要-您将以同样的谨慎对待每个人。
类人机器人只是问题的最上层。 埃隆·马斯克(Elon Musk),比尔·盖茨(Bill Gates),史蒂芬·霍金(Stephen Hawking)以及数百名机器人,物理学,经济学,哲学领域的专家都没有掩盖他们对未来智能系统对人类的负面影响的担忧。
我们喜欢挠挠我们的神经-终结者系列如此受欢迎并非没有。 还有其他电影和书籍中有多少“恶意”的AI。 很难分辨这是我们潜意识中的投射到了文化上,还是媒体是否在影响社会。
“蓝色海洋”中的爆炸性增长
蓝海经济战略认为,想要成功的公司不必与竞争对手抗衡,而可以创造无竞争市场的“海洋”。 这样的战略决策使您可以通过寻找新需求并避免竞争来为公司,其客户和员工立即获得额外的收益。
多年来,人工智能一直是这样的“海洋”。 每个人都知道,即使是弱小的人工智能也将成为任何公司的强大工具,从而提高任何产品和服务的质量。 但是没有人确切地知道需要做什么。 AI的“冬天”持续了
1973年至今,其特征是“智能”机器的设计完全停滞不前。
三十年来,人工智能最重要的成就是IBM计算机在与国际象棋世界冠军的较量中获得了胜利-这一事件不会显着影响任何人的日常生活(加里·卡斯帕罗夫除外)。 但是,在2010年代,发生了与核武器发展相当的事情-神经网络迎来了第二次发展浪潮。
一个令人震惊的事实:科学家们开发人工神经网络已有70多年的历史,但并没有取得太大的成功。 但是到2015年,该地区开始爆发式增长,一直持续到今天。 同时,这发生了:
- “铁”已达到要求的水平-现代视频卡使训练神经网络的速度提高了数百倍;
- 您可以从中学习各种数据的大型数组(数据集);
- 各种公司的共同努力创造了新的教学方法和新的神经网络类型(例如,诸如产生竞争性网络之类的奇妙事物);
- 由于大量的开放科学研究,现成的,预训练的神经网络出现了,在此基础上可以快速进行应用。
监控AI的成功不仅在图像处理的经典示例(主要是神经网络所做的事情)中,而且在无人驾驶汽车领域中都非常有趣。 您会感到惊讶,但是对“自走式”车辆的迷恋
始于大约100年前 :1926年,作为Phantom Car项目的一部分,进行了远程控制机器的首次尝试。
传奇无人机Navlab 5第一批无人驾驶汽车出现在1980年代:1984年,卡内基梅隆大学和ALM的
Navlab项目,以及1987年,慕尼黑军事大学
的 Mercedes-Benz
项目和Eureka Prometheus项目。 Navlab 5于1995年完成,是第一辆自动从美国一个海岸行驶到另一个海岸的汽车。
在神经网络蓬勃发展之前,无人驾驶汽车仍然是实验室项目,软件不可靠。 图像处理技术的进步使机器可以“了解”他们在周围看到的东西,并实时评估交通状况。
无人驾驶软件可能不包括机器视觉和神经网络,但是经过深入的培训,已经取得了进展,这对无人机的成功至关重要。
在“蓝色海洋”中,它突然变得拥挤。 目前,它们的无人机是由通用汽车,大众汽车,奥迪,宝马,沃尔沃,日产,谷歌(以及由Google赞助的Waymo),特斯拉,Yandex,UBER,Cognitive Technologies和KAMAZ以及数十家其他公司制造的。
无人机是在政府计划级别上创建的,包括预算为8亿欧元的欧盟委员会计划,荷兰的2getthere计划,意大利的ARGO研究计划以及美国的DARPA大挑战。
在俄罗斯,国家计划由俄罗斯联邦联邦国家统一企业NAMI的国家科学中心研究所实施,该研究所创建了Shuttle电动客车。 该项目
涉及 KAMAZ和Yandex开发团队,后者负责创建基础设施以铺设路线并处理交通密度数据。
汽车可能是人工智能将影响每个人的第一批大众产品,但不是唯一的。 AI可以控制一个人的机器,写音乐,准备
报纸 ,
做广告 。 他可以,而您通常不可以。 甚至是距离自我意识无限远的弱小的现代AI,也比普通人工作得更好。
听这首歌。 其中的音乐完全由计算机组成所有这些因素,成就和成功导致了这样一个想法,即AI不仅可以提供有用的服务,而且可以带来伤害。 只是因为他很聪明。
AI安全联盟
艾隆·马斯克(Elon Musk)谈AI与《不久的将来》(2017)每天的恐惧很容易克服。 人们很快就会习惯所有美好的事物。 您担心机器人会抢走您的工作吗? 但是它们已经无处不在。 自动取款机给您钱,吸尘器打扫公寓,自动驾驶仪驾驶飞机,技术支持立即响应消息-在所有这些情况下,汽车都可以帮助您,没有遣散费也不会把您赶出去。
尽管如此,仍然有足够多的人反对AI的突然发展。 马斯克(Elon Musk)经常发出警告。 他说,人工智能是“我们作为文明面临的最大风险。” 马斯克认为,就AI而言,积极的立法法规是强制性的。 他指出,在采取行动之前,等待不受控制的发展的不良后果是错误的。
“人工智能是人类文明生存的根本风险”根据Mask的说法
,大多数科技公司只会加剧这个问题:
“您需要为游戏中的所有团队进行调整。 否则,股东会问为什么您没有比竞争对手更快地开发AI。”
特斯拉(Tesla)的所有者
计划使Model 3成为首款大型无人机,他声称AI可以通过虚假新闻,电子邮件帐户欺骗,虚假新闻稿以及简单地操纵信息来发动战争。
比尔·盖茨已经向各种技术公司投资了数十亿美元(其中没有一个与AI相关的项目),他
确认他同意Mask的关注,并且不理解为什么其他人不关注。
但是,人工智能支持者太多了,首先是
Alphabet ,它拥有世界上最先进的AI开发人员之一-DeepMind。 该公司创建了在Go上最困难的游戏中获胜的神经网络,目前正在研究《星际争霸II》游戏的制胜策略,其规则充分反映了现实世界的多功能性和随机性。
是的,尽管如此,马斯克还是同意了,并
决定最好先实现强大的AI并按照他自己的规则在世界范围内推广这项技术,而不是让算法隐藏起来并集中到技术精英或政府精英手中。

Ilon投资了非盈利性公司OpenAI,后者开发了安全的人工智能。 该公司以创建AI安全规则而闻名(希望所有其他开发人员都将使用它们),发布允许人们在虚拟现实中训练人工智能的
算法 ,并成功
击败 Dota 2中的玩家。
在困难游戏中获胜是机器功能的清晰展示。 未来,开发团队计划检查开发的AI是否能够在5 x 5模式下竞争,到目前为止,这听起来并不算是最令人印象深刻,但经过训练能够赢得比赛的自学习算法在不同领域至关重要。
以IBM Watson超级计算机为例,它
可以帮助医生诊断并选择最佳治疗方法。 这是一台非常智能的机器,但是只能做任何医生都能做的事情。 Watson不能开发根本上全新的治疗程序或从头开始开发新药(尽管IBM表示
可以 ,但是没有一项研究可以得出实际结果)。 如果您放弃市场营销,IBM根本
就没有这样的算法 。
现在想象一下,一个能够独立学习规则并开始在任何游戏中击败某个人的系统都会处理这种情况。 诊断也是一个游戏。 我们知道规则,结果是已知的(患者必须生存),只剩下找到最佳策略。 是的,数以百万计的医生将被遗弃,但是长期(非常长)健康的生活值得这种牺牲。
C'est加上Qu'un犯罪,C'est une faute *
任何产品的开发历史都充满了杰出成就和灾难性错误的例子。 有了AI,我们当然很幸运。 到目前为止,军事机器人只能通过展览活动,而且对大规模自我管理的公共交通工具仍进行了多年的测试。 在实验室沙箱中,很难犯一个致命的错误。
然而事件确实发生了。

在初步讨论之后,Facebook
进行了一项实验 ,其中两个网络“共享”了物品(两本书,一顶帽子和三个球)。 每个对象对网络都有重要意义,以点表示(从1到3)。 一个网络不知道该主题对第二个主题是否重要,因此不得不从对话中找出答案。
如果第一个网络说它需要某种对象,那么第二个网络就得出结论,第一个网络对其给予很高的评价。 但是,网络能够模仿对主题的兴趣,以便在适当的时候为自己的利益牺牲它。
网络能够学习如何制定长期策略并预测竞争对手的行为。 同时,他们用自然的英语相互交流,人们可以理解。 但是,为了改善对象交换的机制,网络已采取简化语言的途径。 尽可能地省略了英语规则,并且使用代码字多次重复了该构造。
在某个时候,外部观察者(人)再也无法弄清网络之间在谈论什么。 聊天机器人的这种行为被认为是错误,并且程序已被禁用。
有趣的是,实验不由自主地表明了不同类型的AI如何能够快速学习彼此之间的交流-如此之多,以至于一个人什么都不懂。 该问题还表现在Google的研究中,他们在其中创建了一个神经网络,该网络开发了自己的加密协议。
使用对抗神经密码术来保护通信的培训。Google Brain部门教过神经网络相互之间传输加密的消息,研究人员没有密码的密钥。 第三个网络应该拦截通信。 在消息传输场景播放了15,000次之后,一个网络学会了将其伙伴的密文转换为纯文本而没有一个错误。 同时,观察者网络只能
猜测消息中包含的16位数据中的8位。

微软的Tay聊天机器人发生了一个有趣的案例。 2016年3月,该公司开设了该机器人的Twitter帐户,任何网络用户都可以与之通信。 结果,该机器人开始学习
得太快了 。 在不到一天的时间里,机器人就对人类幻灭了。 他表示,他支持种族灭绝,仇恨女权主义者,并表示同意希特勒的政策。
微软表示,该机器人只是复制了用户消息,并承诺会解决该问题。 一周后,Tau再次出现在Twitter上。 然后他谈论了如何在警察面前使用毒品。 Tay关闭-这次是永远。
2016年12月,该公司推出了一个名为Zo的新的自学机器人,该机器人避免了就敏感主题进行交流并过滤了请求。 在2017年夏天,Zo已经
认为Linux优于Windows,并批评了《古兰经》。
在中国也遇到类似的问题。 腾讯公司开始谈论他们对中国执政的共产党的厌恶以及从中国搬到美国的梦想之后,腾讯公司从其QQ Messenger中
删除了 BabyQ和XiaoBing聊天机器人。
未来在等待着我们

马克·扎克伯格(Mark Zuckerberg)是否正确地
说人工智能将使我们的生活变得更美好? Facebook的创建者(以及
可能担任美国总统的
候选人 )说:“就AI而言,我尤其乐观。 我认为人们在谈论世界末日场景时只是持怀疑态度。”
还是您应该站在掩膜的一边,据此AI提出了太多的道德问题,对人类构成了真正的威胁?
没有人知道这些问题的答案。 未来可能处于中间位置-没有强大的AI和机器自我意识,但具有神经接口和机器人。
事实是,随着技术的发展,错误发生的频率更高(就聊天机器人而言,似乎相同的失败一次又一次地重复出现)。 在如此复杂的软件中,原则上可能无法避免错误。 仅需注意一件事-工作中的异常现象不应导致全人类的危险。 今天,让它成为过度的“对世界末日场景的讨论的怀疑论者”,比明天成为真正的威胁。