IBM教导AI像人脑一样行动

图片

自从达芬奇的《 鸟笼 》时代以来,人类最伟大的思想就从自然界汲取了灵感。 在现代世界中,什么都没有改变,并且机器学习和人工智能领域的最新成就是在最先进的计算器官:人脑的基础上创造的。

模仿我们的灰质不仅仅是创建更高级AI的好主意。 这对于他们的进一步发展是绝对必要的。 基于深度学习的神经网络,例如AlphaGo的神经网络,以及现代的模式识别翻译系统,是迄今为止我们开发的最好的机器学习系统。 他们有能力完成令人难以置信的事情,但仍然面临重大的技术挑战。 例如,他们需要直接访问大数据集以学习特定技能的事实。 此外,如果要重新训练神经网络以执行新任务,则基本上需要擦除其内存并从头开始-这个过程称为“灾难性遗忘”。

将此与逐渐学习的人的大脑进行比较,并不会立即从大量数据中形成。 这是一个根本的区别:基于深度学习的AI是从上到下生成的,从一开始就知道您需要的一切,而人的思维是从零开始构建的,而以前适用于新体验的课程被用来创造新知识。

而且,人类的思维尤其擅长基于逻辑的关系推理,建立过去经验之间的联系,以便即时了解新情况。 统计AI(即机器学习)能够模仿模式识别中的大脑技能,但在应用逻辑时不起作用。 另一方面,象征性AI可以使用逻辑(假设他已接受此推理系统的规则训练),但通常无法实时应用此技能。

但是,如果我们可以将人脑的最佳计算灵活性与强大的 AI处理能力相结合,该怎么办? 这正是DeepMind团队试图做的。 他们创建了一个神经网络,能够将关系推理应用于他们的任务。 它的工作方式与大脑神经元网络大致相同。 当神经元彼此之间使用不同的关系来识别模式时:“在这种情况下,我们显然正在使网络检测对象对之间存在的关系,” DeepMind的科学家Timothy Lillycrap说。

当她在六月接受有关图像中几何对象相对位置的复杂问题时 ,例如:“蓝色对象前面是否有一个对象,它的形状与灰色金属球右侧的微小蓝色物体的形状相同吗?” -她在96%的情况下正确识别了该物体。 传统的机器学习系统在42%-77%的情况下提供了正确的解决方案。 甚至只有92%的人通过了测试。 没错,这种混合型AI的性能要优于制造它的人。

当AI出现单词问题时,结果是相同的。 尽管常规系统能够在简单的问题上与DeepMind相匹配,例如“ Sarah拥有成功。 莎拉进入她的办公室。 球在哪里?” 混合人工智能系统在诸如“百合是天鹅。 百合是白色的。 格雷格是一只天鹅。 格雷格是什么颜色的?” DeepMind在98%的情况下正确回答了问题,而竞争对手中只有约45%的回答正确。

图片

DeepMind甚至可以在“记住”重要信息并将此积累的知识应用于将来的请求的系统上工作。 但是IBM正在向前迈出两步。 在上周于澳大利亚墨尔本举行的2017年国际人工智能合作会议上发表的两篇研究论文中,IBM提出了两项​​研究:一项探索如何提供AI``注意力'' ,另一项探索神经发生的生物学过程(即神经元的生与死)在机器学习系统中的应用问题。

“神经网络培训通常是经过设计的,要真正创建最有效的特定体系结构,需要做大量工作。 “这几乎是一种反复试验的方法,” IBM研究人员Iradget Irina Rish说。 “如果这些网络能够建立自己,那就太好了。”

IBM Attention Algorithm通知神经网络有关哪些输入提供最高奖励的信息。 奖励越高,网络将给予他们更多的关注。 在数据集不是静态的情况下(即在现实生活中),它特别有用。 瑞什说:“注意力是一种基于奖励的机制,不仅仅是与决策和我们的行动无关。”

“我们知道,当我们看到图像时,人眼通常只有很小的视野,” Rish说。 “因此,根据分辨率,您只会看到图像[清晰]的几个像素,但其他所有内容看起来都模糊。 事实上,您可以快速移动眼睛,以正确的顺序将各个零件组装到图像中的机制将使您能够快速识别图像。”

图片

注意功能的首次使用可能是在模式识别中,尽管它可以用于各种领域。 例如,如果使用牛津数据集 (主要是建筑图像)训练AI,则可以轻松正确地识别城市景观。 但是,如果您给他看一堆来自乡下的照片(田野和花朵等),则AI会感到困惑,因为他不知道什么是花。 当您对人和动物进行相同的测试时,您会刺激神经发生,因为他们的大脑会尝试将他们对城市已经了解的知识适应该国的新景观。

该机制告诉系统它应该关注什么。 例如,以您的医生为例,她可以为您进行数百种可能的检查,以确定是什么困扰着您,但这是不可能的:按时或以合理的价格。 那么,她应该问什么问题,应该做哪些测试才能在最短的时间内获得最佳诊断? Rich解释说:“这就是算法要学习的内容。” 他不仅确定哪种解决方案可带来最佳结果,还找出在哪里寻找数据。 因此,该系统不仅可以做出更正确的决策,而且还可以使决策更快,因为它不会请求数据集中不适用于当前问题的部分。 就像您的胸口痛和呼吸急促时,医生不会用奇怪的小锤子触摸膝盖。

注意系统可以很方便地确保网络执行任务,而IBM在神经可塑性(记忆“记忆”的程度)方面的工作可提供长期的网络内存。 这实际上是根据在人类海马体中观察到的神经元的出生和死亡的相同机制进行建模的。

Rish解释说,在这个系统中,“您不必建模数百万个参数”。 “您可以从一个较小的模型开始,然后根据所看到的数据,它们会适应。”

当向她提供新数据时,IBM神经遗传学系统开始形成新的改进的连接(神经元),而某些较旧的,不太有用的连接将被“切断”,如Rish所言。 这并不意味着该系统从字面上删除了旧数据,而是删除了旧数据,就像过去的几年中您的旧记忆趋于模糊一样,但是那些带有重大情感压力的记忆仍然生动鲜明。好多年了

图片

Rish说:“神经发生是适应深度网络的一种方式。” “神经网络是一个模型,您可以从头开始构建此模型,也可以在需要时更改此模型,因为您有几层隐藏的神经元,并且可以决定要拥有多少(神经元)...取决于数据。”

这很重要,因为您不希望神经网络无限扩展。 如果发生这种情况,数据集将变得如此庞大,以至于连数字化的充血都无法承受。 Rish说:“这也有助于规范化,因此[AI]不会'改变主意'。”

总之,这些成就对于AI研究界可能非常有用。 Rish的团队希望致力于他们所谓的“内部关注”。 您不仅会选择要在网络上看到的数据,而且还要选择要根据一组数据和输入在计算中使用的网络的哪些部分。 基本上,注意力模型将涵盖短期,活跃的思考过程,而部分内存将使网络根据当前情况优化其功能。

理查德警告说,但不要指望在不久的将来,人工智能将能够与人类的思想竞争。 “我至少要说几十年,但是,这只是一个假设。 她说:“从高精度模式识别的角度来看,我们现在所做的工作与人类情感的基本模型仍然相距甚远。” “我们才刚刚开始。”



图片
图片

Source: https://habr.com/ru/post/zh-CN406893/


All Articles