我们不能相信仅基于深度学习的AI系统



本文不是科学研究的结果,而是关于我们当前技术发展的众多观点之一。 同时邀请进行讨论。

纽约大学教授加里·马库斯(Gary Marcus)坚信深度学习在人工智能的发展中起着重要作用。 但他还认为,对这种技术的过度热情可能会导致其信誉下降。

在他的著作《 重启人工智能:构建人工智能》中,我们可以信任神经学家马库斯(Marcus),他是通过培训而培养的,他的职业生涯是建立在尖端AI研究的基础上,致力于解决技术和道德问题。 从技术角度来看,深度学习可以成功地模仿大脑执行的感知任务的解决方案,例如图像或语音的识别。 但是对于解决其他任务,例如理解对话或确定因果关系,深度学习并不好。 为了创建可以解决更广泛任务的更高级的智能机器-它们通常被称为通用人工智能-深度学习必须与其他技术结合。

如果AI系统不能真正理解其任务或周围环境,则可能导致危险后果。 即使系统环境中发生最小的意外更改,也可能导致其错误行为。 这样的例子已经很多了:不恰当表达的决定因素很容易被骗; 不断歧视的求职系统; 发生事故并有时杀死驾驶员或行人的无人驾驶汽车。 通用人工智能的创建不仅是一个有趣的研究问题,它还具有许多完全实际的应用。

在他的书中,马库斯和他的合著者欧内斯特·戴维斯(Ernest Davis)提出了一条不同的道路。 他们认为,我们离创建通用的AI尚很遥远,但他们确信早晚创建它是可能的。

为什么我们需要通用的AI? 专业版本已经创建,并带来很多好处。

的确,收益将更大。 但是,许多专业AI根本无法解决的任务。 例如,了解普通语音或虚拟世界中的常规帮助,或帮助清洁和烹饪的机器人。 此类任务超出了专门AI的能力。 另一个有趣的实用问题:是否可以使用专门的AI创建安全的无人机车? 经验表明,即使在驾驶时,这种AI在异常情况下的行为仍然存在许多问题,这使情况变得非常复杂。

我认为我们所有人都希望获得能够帮助我们在医学上进行大规模新发现的AI。 目前尚不清楚当前的技术是否适合于此,因为生物学是一个复杂的领域。 必须准备读很多书。 科学家们了解网络与分子相互作用中的因果关系,可以发展有关行星等的理论。 但是,使用专门的AI,我们无法创建能够进行此类发现的机器。 借助通用的AI,我们可以彻底改变科学,技术和医学。 我认为,继续开发通用的AI非常重要。

听起来像“一般”,意味着强大的AI?

说“一般”是指AI能够思考并独立地动态解决新问题。 与郭说的不同,在过去的2000年中,问题没有改变。

通用人工智能应该能够在政治和医学上做出决策。 这是人类能力的类似物; 任何理智的人都可以做很多事。 您招募了经验不足的学生,几天后强迫他们从事几乎所有工作,从法律任务开始到医疗任务结束。 这是因为他们对世界有共同的理解,并且能够阅读,因此可以促进各种各样的活动。

这样的智力和强壮的智力之间的关系是,非强智力可能无法解决常见问题。 要创建足以与不断变化的世界兼容的可靠产品,您可能至少需要更接近通用情报。

但是现在我们离这个还很远。 AlphaGo可以在19x19的板上完美玩耍,但是需要重新训练才能在矩形板上玩。 或采用一般的深度学习系统:如果光线充足并且可以看到其皮肤纹理,它可以识别大象。 如果只看到大象的轮廓,则系统可能无法识别它。

在您的书中,您提到深度学习无法实现一般AI的功能,因为它无法深入理解。

在认知科学中,他们谈论各种认知模型的形成。 我坐在旅馆房间里,我知道那里有一个壁橱,一张床,一台电视,这是异常悬挂的。 我知道所有这些项目,而不仅仅是识别它们。 我也了解它们如何相互连接。 我对世界的运作有想法。 他们并不完美。 他们可能是错的,但它们非常好。 基于这些结论,我得出了很多结论,这些结论成为我日常工作的指南。

另一个极端是类似DeepMind创建的Atari游戏系统,在该系统中,他记得当他看到屏幕上某些位置的像素时需要做什么。 如果您获得足够的数据,似乎您已经了解了,但是实际上这是非常肤浅的。 证明是,如果将对象移动三个像素,则AI播放效果会更差。 变化使他感到困惑。 这与深刻理解相反。

为了解决这个问题,您建议返回经典AI。 我们需要尝试使用哪些优点?

有几个优点。

首先,经典AI实际上是用于创建世界认知模型的框架,然后可以在此基础上得出结论。

其次,经典AI与规则完全兼容。 现在,在深度学习领域中,当专家试图规避规则时,出现了一种奇怪的趋势。 他们想做神经网络上的所有事情,而不想做看起来像经典编程的事情。 但是有些任务已经以这种方式从容解决,没有人关注它。 例如,在Google地图中构建路线。

实际上,我们需要两种方法。 机器学习可以使您从数据中学习得很好,但是在显示计算机程序所代表的抽象方面的帮助非常差。 经典AI与抽象配合得很好,但需要手动对其进行完全编程,并且世界上知识太多,无法对它们全部进行编程。 显然,我们需要将两种方法结合起来。

这与您在其中讨论我们可以从人的思想中学到什么的章节有关。 首先,关于基于上述思想的概念,我们的意识由许多以不同方式工作的不同系统组成。

我认为还有另一种解释方式:我们拥有的每个认知系统确实可以解决不同的问题。 AI的相似部分应设计为解决具有不同特征的各种问题。

现在,我们正在尝试使用一些多合一技术来解决彼此根本不同的问题。 理解句子与识别对象根本不同。 但是在两种情况下,人们都尝试使用深度学习。 从认知的角度来看,这些是本质上不同的任务。 我只是对深度学习专家社区对经典AI的评价如此之低感到惊讶。 为什么要等待银弹出现? 这是无法实现的,并且徒劳的搜索不允许理解创建AI任务的复杂性。

您还提到了AI系统对于理解因果关系是必不可少的。 您认为深度学习,经典AI或全新的东西会在这方面帮助我们吗?

这是深度学习不太适合的另一个领域。 它不解释某些事件的原因,但计算给定条件下事件的概率。

我们在说什么 您查看了某些情况,并了解了为什么会发生这种情况以及在某些情况下会发生什么情况。 我可以看一下电视上的支架,然后想象一下,如果我割断了她的一只腿,支架将翻转而电视会掉落。 这是因果关系。

经典AI为此提供了一些工具。 他可以想象,例如,什么是支持,什么是下降。 但是我不会赞美。 问题在于,经典的AI很大程度上取决于所发生事件的信息的完整性,但是我只能通过看台来得出结论。 我可以以某种方式概括一下,想象一下我看不见的架子部分。 我们尚无工具来实现此属性。

您还说人们有先天的知识。 如何在AI中实现呢?

在出生时,我们的大脑已经是一个经过深思熟虑的系统。 它不是固定的,自然是第一个草稿。 然后学习可以帮助我们一生修改该草案。

大脑的粗略草图已经具有某些功能。 一只新生的山羊在几个小时内就能准确地下山。 显然,他已经对三维空间,他的身体以及它们之间的关系有了了解。 系统非常复杂。

这就是为什么我认为我们需要混合动力的部分原因。 很难想像如何在没有类似知识的情况下创建一个在世界范围内运作良好的机器人,从何处开始,而不是从头开始并从长期的广泛经验中学习。

对于人类来说,我们的先天知识来自我们的基因组,它随着时间的流逝而发展。 对于AI系统,我们必须走另一条路。 在某种程度上,这些可能是构造我们的算法的规则。 这些可能部分是用于创建这些算法可操纵的数据结构的规则。 在某种程度上,这可能是我们会直接投资于机器的知识。

有趣的是,在本书中,您介绍了信任的概念和信任系统的创建。 您为什么选择此标准?

我相信今天所有这一切都是一场球赛。 在我看来,我们正处在历史的一个奇怪时刻,在很大程度上信任不可靠的软件。 我认为今天内在的焦虑不会永远持续下去。 一百年来,人工智能将证明我们的信任是合理的,甚至可能更早。

但是今天,人工智能很危险。 并不是说伊隆·马斯克(Elon Musk)担心,而是因为求职面试系统会歧视女性,无论程序员做什么,因为她们的工具太简单了。

我希望我们拥有更好的AI。 我不希望“人工智能的冬天”开始,因为人们意识到AI不能正常工作而且很危险,并且不想修复它。

从某种意义上说,你的书真的很乐观。 您建议您可以构建可信的AI。 我们只需要朝另一个方向看。

的确,这本书在短期内非常悲观,从长期来看非常乐观。 我们相信,如果我们更广泛地看待正确答案应该是什么,我们所描述的所有问题都可以解决。 我们认为,如果发生这种情况,世界将会变得更好。

Source: https://habr.com/ru/post/zh-CN471978/


All Articles