人工智能遇到了理解障碍

机器学习算法尚未像人们那样理解现实-有时会带来灾难性的后果

关于作者: Melanie Mitchell是波特兰州立大学的计算机科学教授,也是圣达菲研究所的客座教授。 她的书《人工智能:思考者指南》将于2019年由Farrar,Straus和Giroux出版


2018年9月在南非人工智能博览会的访客。 照片:Nic Bothma / EPA,通过Shutterstock

您可能已经听说过我们正处于AI革命之中。 我们被告知,机器智能正以惊人的速度发展,它依赖于使用大量数据来训练称为“神经网络”的复杂程序的“深度学习”算法。

如今的程序可以识别人脸并记录语音。 我们提供了一些程序,用于检测细微的财务欺诈,响应模棱两可的请求找到相关的网页,在几乎任何地方铺设最佳路线,这些程序在国际象棋和围棋中击败了大师级游戏,并在数百种语言之间进行翻译。 而且,无人驾驶车辆,自动癌症诊断,房屋清洁机器人,甚至自动科学发现都有望在不久的将来随处可见。

Facebook创始人马克·扎克伯格(Mark Zuckerberg) 最近表示 ,在未来的五到十年中,该公司将开发AI,使其“在所有基本意义上超越人的水平:视觉,听觉,语言,一般理解”。 Google DeepMind首席研究员Shane Legg 预测 ,“人工智能将在2020年代中期超过人类水平。”

作为从事人工智能领域数十年的人,我目睹了许多此类预测的失败。 而且我敢肯定,最新的预测也不会实现。 在机器中创建人类智能的问题仍然被低估了。 当今的AI系统非常缺乏人类智能的本质: 了解我们正在遇到情况,理解其含义的能力。 数学家和哲学家吉安·卡洛·罗塔(Gian-Carlo Rota)提出了一个著名的问题:“我想知道人工智能是否能够克服理解障碍。” 对我来说,这仍然是最重要的问题。

现代AI基础中最近出现的问题强调了对机器缺乏人类理解的能力。 尽管现代程序比20到30年前的系统令人印象深刻,但许多研究表明,深度学习系统以完全不人道的方式证明了安全性。

我会举几个例子。

“光头男人需要一顶帽子” [光头男人需要一顶帽子]-电话上的语音识别程序将该短语识别为“熊头男人需要一顶帽子”。 “我把猪放到钢笔里”这个短语Google Translate将法语翻译为“我把猪放到钢笔里” [Je mets le cochon dans le stylo]。

如果将简短,不相关的文本片段添加到文档中,则“阅读”文档并回答有关文档问题的程序很容易被愚弄同样,如果您通过某些类型的照明,图像过滤和其他更改(至少不会影响人类识别对象的效率)稍微改变输入数据,识别面部和物体的程序(著名的深度学习胜利)就会失败。 。

最近的一项研究表明 ,在面部图像上添加少量“噪声”会严重干扰现代面部识别程序。 另一项幽默地称为“房间里的大象”的研究表明,在客厅角落里的一幅大象等异物的小图像以一种奇怪的方式使深度学习中的机器视觉系统无法正确地对其他对象进行分类。

此外 ,当条件发生最轻微的变化(更改屏幕背景或更改虚拟“平台”的位置以击败“球”)时,已经学会完全掌握“超人”级别的特定视频游戏或棋盘游戏的程序将完全丢失。

这些只是一些例子,说明如果情况与他们所接受的培训略有不同,则最好的AI程序将不可靠。 这些系统中的错误范围从可笑和无害到潜在的灾难性。 例如,想象一下一个机场安全系统,该系统不允许您登机,因为您的脸与犯罪分子的脸相混淆,或者由于异常的光照条件而无人驾驶的车辆没有注意到您要离开交叉路口。

更令人震惊的是,最近对所谓的“敌对”示例的AI漏洞的演示。 在其中,恶意黑客可以对人类看不见或无关紧要的图像,声音或文本进行某些更改,但可能导致潜在的灾难性AI错误。

几乎在AI的所有领域(包括计算机视觉,医学图像处理,语音识别和处理)都显示出此类攻击的可能性。 大量研究表明,黑客可以轻松操纵面部识别系统或图片变化不大的物体。 “停止”路标上看不见的贴纸迫使无人驾驶的机器视觉系统将其作为“上路”,对人来说,听起来像是背景音乐的声音信号修改告诉Siri或Alexa系统秘密执行某个命令。

这些潜在的漏洞说明了为什么当前的AI进展依赖于理解的障碍。 任何使用AI系统的人都知道,在类似于人类视觉,语音和游戏技能的外观背后,这些程序绝对不会以任何人类方式理解它们接收到的用于处理的输入数据以及产生的结果。 缺乏这种了解,会使这些程序容易遭受意外错误和无形的攻击。

克服此障碍将需要什么,以便机器可以更好地了解其所面临的状况,而不是依靠小零件? 要找到答案,您需要转向对人类知识的研究。

我们对面对的情况的理解基于广泛,直观的“常识概念”,即世界如何运转以及其他生物(尤其是其他人)的目标,动机和可能的行为。 此外,我们对世界的理解基于我们的基本能力,即可以概括我们所了解的知识,形成抽象概念并进行类推-简而言之,可以使我们的概念灵活地适应新情况。 几十年来,研究人员一直在尝试教授AI直观常识和可持续人类能力来进行概括,但是在这一非常困难的问题上进展甚微。

缺乏常识和人类理解的其他关键方面的AI程序越来越多地部署在实际应用程序中。 尽管有些人担心AI的“超智能”,但AI的最危险方面是我们对此类系统过于信任并给予过多的自治权,而没有完全意识到其局限性。 正如研究员Pedro Domingos在他的书“主要算法”中指出的那样: “人们担心计算机会变得过于智能,无法掌控整个世界,但真正的问题是它们太愚蠢了,已经掌握了它

人工智能商业化竞赛给研究人员施加了巨大压力,要求他们创建在狭窄任务中“合理运行”的系统。 但是最终,开发可靠的 AI的目标需要对我们自己的非凡能力进行更深入的研究,并重新认识我们自己用来可靠地理解周围世界的认知机制。 克服理解AI的障碍可能会向后退-从更大的网络和数据集回到作为研究最复杂的科学问题:智能本质的跨学科科学的行业根源。

Source: https://habr.com/ru/post/zh-CN429182/


All Articles