如何教人工智能常识



五年前,总部位于伦敦的AI公司DeepMind的程序员高兴地看着AI学会了自己玩经典的街机游戏。 他们使用了时尚的深度学习(GO)技术来完成一项看似奇怪的任务:在Atari制作的Breakout中掌握游戏,您需要从砖墙上打一个球,以使砖墙消失。

GO是机器的自学习; 您输入AI大量数据,然后逐渐开始独立识别模式。 在这种情况下,数据就是屏幕上正在发生的事情-大像素代表砖块,球和球拍。 在AI DeepMind(一个由分层算法组成的神经网络)中,没有了解Breakout游戏的规则,其操作原理,游戏的目标和方法。 程序员只需让神经网络研究每个动作,每个球反弹的结果即可。 它会导致什么?

事实证明,这是令人印象深刻的技能。 在最初的几次尝试中,AI随机挂出。 玩了几百遍之后,他开始准确地击球。 到第600场比赛时,神经网络提出了玩Breakout的人所使用的专家动作,当玩家在砖块上打洞并发送球跳到墙顶时。

DeepMind主管Demis Khasabis说:“这对我们来说是一个很大的惊喜。” “该策略源于系统本身。” 人工智能已经展现出了非凡的类似于人类的思维能力,能够理解构成游戏基础的内部概念。 从理论上讲,由于神经网络粗略地复制了人脑的结构,因此它们也应该复制我们的思维方式。 这一刻似乎证明了这一理论。

去年,位于旧金山的AI研究公司Vicarious的计算机科学家提供了一种有趣的方法来在现实条件下测试AI。 他们采用了DeepMind中使用的那种AI,并对其进行了训练以玩Breakout。 他做得很好。 然后他们开始调整游戏布局。 他们将举起球拍或在球场中央增加一个难以穿透的区域。

人类玩家可以迅速适应这些变化。 但是神经网络不能。 看来,疯狂的AI只能玩他经过数百次尝试研究的那种Breakout。 他没有消化任何新东西。

“人们不仅可以识别模式,” IT专家Vicarious的创始人之一Dilip George告诉我。 -我们仍在建立我们所看到的模型。 这些因果模型-我们将因果联系起来。” 人们参与推理,得出关于他们周围世界的逻辑结论; 我们拥有常识性知识库,可帮助我们了解新情况。 当我们看到“突破”,与我们刚玩的游戏略有不同时,我们意识到它很可能具有相似的规则和目标。 神经网络对“突围”一无所知。 她只能遵循模式。 当模式改变时,她变得无助。

GO是AI之王。 在成为主流的六年中,它已成为教导机器如何感知和感受周围世界的主要方法。 她支持Alexa的语音识别,Waymo的机器人汽车,Google的即时翻译。 从某种意义上说,Uber是一项巨大的优化任务,它使用机器学习(MO)来预测乘客将在何处需要汽车。 中国科技巨头百度有2000名从事神经网络工作的程序员。 多年来,GO似乎只会有所改善,并且会无情地催生一台具有灵活而快速的智能以匹配人的机器。

但是,一些异端人士声称民防紧挨着隔离墙。 他们说,仅凭它就永远不会产生广义的人工智能(AI),因为真正的人类思维不仅仅是识别模式。 现在是时候开始着手研究如何赋予AI日常常识,人性思维了。 他们警告说,如果这对我们不可行,我们将仍然对GO的局限性保持警惕,因为模式识别系统很容易通过更改部分输入而被愚弄,因此GO模型会将乌龟当作枪支。 他们说,但是如果我们能够做到这一点,我们将见证更安全,更有用的设备的爆炸性增长-医疗机器人在混乱的房屋中移动,没有假阳性的假识别系统,研究疾病原因和后果的机器在医学上的突破。

但是,汽车中的真实推理是什么样的? 如果民间社会不能引导我们做到这一点,那又能做什么呢?



加里·马库斯(Gary Marcus)是一位48岁的纽约大学心理学和神经病学教授,戴着双眼镜,而且可能是最著名的正统深度学习叛教者。

当神经网络处于实验阶段时,Marcus第一次对AI产生了兴趣,在1980年代和90年代,自那时以来,他的观点一直没有改变。 “当晚聚会不是我迟到,我想对这里的一切进行庸俗化,”当我们在纽约大学附近的他的公寓里相遇时,马库斯告诉我(他和我也是朋友)。 “一旦GO爆炸发生,我就说:伙计们,这是错误的方向!”

然后,GO策略与当前策略没有不同。 假设您需要一台机器来学习识别雏菊。 首先,您需要通过将算法的“神经元”组合成类似三明治的层来进行编码(当使用多个层时,黄油会变厚或“更深”-因此是“深度”学习)。 第一层显示的是雏菊图像,其神经元已激活还是未激活,这取决于此图像是否类似于之前看到的雏菊示例。 信号然后移至下一层,在该层重复该过程。 结果,各层对数据进行筛选,并通过了一项判决。

首先,神经网络参与盲目猜测。 她从头开始生活。 底线是组织有用的反馈。 每当AI不在神经元集合中猜到雏菊时,导致错误答案的连接都会减弱。 如果您猜到了,连接就会增强。 经过足够的时间和雏菊后,神经网络变得更加准确。 她学会了掌握特定的雏菊样式,从而每次都能识别雏菊(而不是向日葵或翠菊)。 多年来,关键思想-从一个幼稚的网络开始并通过重复训练它-已经得到改进,并且在几乎所有应用中似乎都有用。

但是马库斯没有被说服。 从他的角度来看,问题是一个干净的问题:假设人们仅通过观察周围的环境来发展智力,这意味着机器也能够做到这一点。 但是马库斯(Marcus)相信人们不会那样做。 他遵循诺姆·乔姆斯基(Noam Chomsky)的思想道路,后者声称人们天生具有学习的倾向,并拥有学习语言和解释自然世界的程序。

他指出,尽管它们的所有假设都类似于大脑,但神经网络似乎并不像人的大脑那样起作用。 例如,他们需要太多数据。 在大多数情况下,每个网络都需要数千或数百万个培训示例。 更糟糕的是,每当您需要使网络识别新项目时,都需要从头开始。 经过训练以识别金丝雀的神经网络对识别鸟鸣或人类语音根本没有用。

“我们不需要大量的数据来进行培训,” Marcus说。 他的孩子们不需要先看一百万辆汽车就可以识别汽车。 更好的是,他们知道如何概括:当他们第一次看到拖拉机时,就知道它看起来像汽车。 他们也知道如何假设相反。 Google翻译可以说出法语,相当于英语句子“杯子被移到桌子上掉下来了”。 但是他不理解单词的含义,也无法告诉您如果不移动玻璃杯会发生什么。 正如马库斯(Marcus)所指出的,人们不仅掌握语法定律,而且掌握单词背后的逻辑。 您可以给孩子发明虚构的动词“ dance”,他很可能会猜到在过去时他会“跳舞”。 但是他以前从未见过这样的话。 他没有被“训练”。 他只是凭直觉就感觉到了语言的逻辑,可以将其应用于新的情况。

Marcus说:“ GO系统不知道如何集成抽象知识。” Marcus创立了创建AI的公司,该公司可以从更少的数据中学习(并于2016年将其出售给Uber)。

今年,Marcus发表了关于arXiv的工作预印本,他声称如果没有新的方法,GO可能永远无法克服其当前的局限性。 他需要突破-内置或补充性规则,以帮助AI推理世界。

Source: https://habr.com/ru/post/zh-CN431418/


All Articles