Facebook使对话成为下一个受欢迎的界面

机器人无法像人类一样说话。 但是,Facebook AI研究人员已经在积极渗透这一领域。 这会严重影响公司的使者,不仅




聊天机器人在2015年是一个非常受欢迎的话题。 最受欢迎的游戏之一是来自Facebook的M,根据该公司的计划,它应该成为一种灵活的通用机器人,能够执行很多事情-订购商品,送礼物,在餐厅预订餐桌和计划旅行。 但是,对于结果的大肆宣传。 当Facebook为来自旧金山湾区的2500人测试其M时,该程序无法应付分配给它的大部分任务。

在对M和其他聊天机器人的热情激增之后(微软总监Satya Nadella普遍表示 “聊天机器人是新应用”),随之而来的是一波失望 。 聊天机器人聊天不畅,被机器人吸引。 这是因为他们被教导要谈论非常狭窄的话题并执行非常具体的任务。 他们无法与人保持自然的交谈,无法基于对单词及其含义的理解来给出答案。 他们只能发表一般性评论。

甚至在M进入beta测试阶段之前,Facebook减少了对该机器人的宏伟计划,尽管部分自然语言技术陷入了雄心勃勃的Facebook Messenger聊天机器人中,能够执行简单的单个任务,例如点菜或从列表中给出答案。问题和答案。 美国运通(American Express)和1-800-FLOWERS等公司仍使用类似的简单聊天机器人来回答用户问题以提供支持,接受简单的订单并发布有关其个人帐户余额的信息。 如果您在能力有限的范围内提出问题,许多人仍会将您转给其他人。

但是,AI AI研究团队已经领先于诸如简单聊天机器人之类的项目。 “在过去的三到四年中,我们一直在说我们不会遵循研究旨在实现某个目标的对话的道路-这是一项风险很高的任务,这太困难了,”来自Facebook的自然语言研究员Antoine Borde告诉我。 他说,如果旅行聊天机器人“预订了错误的飞机,错误的航班,那么在金钱,旅行等方面将是一个非常大的错误”。

Borde说,Facebook不再专注于某些任务的机制,而是向更深层次的任务迈出了一步-训练虚拟代理像人一样进行交流。 如果聊天机器人可以更好地理解人们并与他们交谈,那么,按照公司的构想,他们最终将成为可以帮助人们执行实际任务(例如预订所有相同票证)的最佳助手。

Facebook正在积极投资于这些发展,聘请了最好的自然语言AI专家。 该公司喜欢指出,与其他技术巨头不同,它使AI研究的结果可在线提供给整个研究社区,希望它能帮助其他人创建新一代AI。 但是,这项研究当然会落入他们自己的产品中。

Messenger和WhatsApp(Facebook仍不了解如何通过后者货币化)之类的Messenger似乎是这些开发的自然应用领域。 扎克伯格谈到了公司专注于私人通信的想法,因此Messenger和WhatsApp将不得不添加新功能,以免在其他类似平台(尤其是微信,Telegram和Apple iMessage)上占据主导地位。

创建可以支持与人自由对话的算法已成为技术公司的主要目标。 亚马逊,谷歌和微软正在与Facebook一起,共同探讨人与人之间交流的可能性-不仅通过短信,还可以在语音助手的帮助下以及其他方式。 由于最近的研究,创建真正具有通信能力的计算机的道路突然变得清晰了-但是,获得第一名的奖牌仍在等待其获奖者。

换句话说,Facebook的自然语言研究远远不只是简单地复活M或改进Messenger中的聊天机器人。 它与整个公司的未来息息相关。

介绍神经网络


在自然语言处理领域,创建能够与人进行可靠对话的数字代理可能是所有任务中最困难的。 机器必须学习一个充满单词的字典,以及它们的用法和细微差别的示例,然后在与无法预测的人进行实时交流时使用它们。

仅在最近几年中,自然语言AI社区才开始朝着创建通用机器人迈出重大一步。 特别是,这是由于神经网络领域的突破而发生的-神经机器学习算法通过分析大量数据来识别模式。

在AI的大部分历史中,人们一直在关注程序的过程中遵循机器学习过程。 在一种称为“与老师一起教学”的技术中,一个人缓慢地训练神经网络,给出问题的正确答案,然后调整算法,使其达到相同的解决方案。

如果有大量精心标记的数据(例如猫,狗或其他物体的照片),则与老师的教学效果很好。 但是,这种方法在聊天机器人世界中通常不起作用。 很难找到大量(数千小时)的带有标签的人对人对话,并且从一家公司创建如此大量的数据将非常昂贵。

由于很难教聊天机器人使用旧方法进行交谈,因此研究人员正在寻找与老师一起学习的替代方法,以便神经网络可以根据数据自行学习,而无需人工干预。

消除对训练数据的需求的一种方法是在基本水平上对机器进行常识训练。 如果计算机能够理解周围的世界-例如物体的相对大小,人们的使用方式,关于物理定律对它们的影响的某些概念-它可能会缩小选择范围,仅保留实际的选择。

人们以自然的方式做到这一点。 例如,假设您在陡峭的悬崖附近开车,突然在路上看到一块大石头。 您需要避免与他发生冲突。 但是,选择选项后,您不太可能决定急剧转向悬崖。 您知道汽车会因重力而掉落在石头上。


严乐坤

Facebook的副总裁兼首席AI专家Jan Lekun说:“人类学习的很多内容都是观察我们周围的世界。” Jan Lekun是AI传奇人物,致力于解决1980年代以来最棘手的问题。 “我们从父母和其他人那里学到了很多东西,而仅仅是从与世界的互动,尝试做某事,失败和调整我们的行为上。”

使用这种称为“无师范学习”的技术训练的AI的工作方式与此类似。 例如,机器人通过许多传感器和照相机收集有关世界的数据,就像一个孩子借助五种感官研究世界一样。 通过这种方法,科学家为机器提供了大量的训练数据。 他们没有要求她给出正确的答案,也没有将她逼到特定的目标。 他们只要求她处理数据并从中学习,寻找模式,在数据中各个点之间建立关系。

在许多情况下,很难找到必要的数据。 但是,在AI的这一领域中,神经网络无需任何传感器即可了解很多关于世界的知识:自然语言处理。 研究人员可以使用大量现有文本来帮助算法理解人类世界,这是理解语言任务的必要组成部分。

假设神经网络收到以下用于反射的短语:
该奖品太大,无法放入手提箱。

奖品太小,无法放入手提箱。


为了理解每个句子中的“他”是指不同的对象,模型需要了解现实世界对象的属性及其关系。 勒昆说:“对其进行培训的文本具有足够的结构,可以理解,如果一个对象适合另一个对象,那么如果其中一个对象太大,则其中一个可能就不合适。”

这项技术可能是新一代更有用,更社交化的Facebook聊天机器人的关键。

认识BERT和RoBERTa


谷歌于2018年在自然语言处理系统的无师范学习中取得了持续的突破。 该公司的研究人员创建了一个深度学习模型BERT(用双向编码表示变压器),并给它提供了11038本书的未加标签的文本和来自英语维基百科的25亿个单词。 研究人员从文本中随机删除了某些单词,并设置了模型以插入缺失的单词。

在分析了整个文本之后,神经网络从单词和句子中发现了通常在相同上下文中出现的模式,这有助于她理解单词之间的基本关系。 由于单词是现实世界中对象或概念的表示,因此该模型不仅学习了单词之间的语言关系:还开始了解对象之间的关系。

BERT并不是第一个使用无老师学习来理解人类语言的模型。 但是她是第一个在上下文中学习单词含义的人。

微软研究实验室之一的深度学习集团研究经理高建峰说:“我想说这个项目是自然语言处理领域的两项重大突破。” “人们使用此模型作为创建所有其他自然语言处理模型的基础。” 迄今为止,BERT研究已被其他著作引用超过1000次-其他研究人员也在此基础上进行开发。

其中包括Lekun和他的团队。 他们创建了该模型的自己的版本,进行了优化,扩展了训练数据量和训练时间。 经过数十亿次计算,一个名为RoBERTa的Facebook神经网络的性能要比Google好得多。 她的准确度为88.5%,而BERT仅为80.5%。

BERT和RoBERTa代表了一种全新的方法来教授计算机进行通信。 “在此过程中,系统应指出所遇到的单词的含义,句子的结构,上下文。” Lekun说。 “最后,她似乎认识到语言的含义,这很奇怪,因为她对世界的物理现实一无所知。” 她没有视力,她没有听力,她什么也没有。” 她只知道语言。 字母,单词和句子。

进行真实的对话


Lekun说,使用BERT或RoBERTa训练的自然语言模型不会产生任何有意义的常识-仅基于广泛的泛滥知识数据库,仅在聊天中提供答案就足够了。 这仅仅是算法学习过程的开始,就像人一样说话。

Facebook的自然语言研究人员还试图建立基于RoBERTa的交流的更多细节。 他们首先通过聊天机器人研究人们的对话,以了解对话何时变得无聊或崩溃。 他们的发现有助于找到训练机器人的方法,从而可以避免对话中最常见的错误。

例如,聊天机器人经常自相矛盾,因为他们不记得他们之前说过的话。 聊天机器人可能会说她喜欢看《骑士骑士》的剧集,然后宣布他不喜欢该节目。 创建自己答案(而不是从训练数据中提取线索)的聊天机器人通常会模糊地回答问题,以免出错。 他们常常显得情绪低落,因此与他们交流并不那么有趣。

聊天机器人还应该能够利用知识使其变得有趣。 可以使用广泛信息的机器人更可能与人保持长时间的对话。 但是,现有聊天机器人是使用来自单个区域的知识进行训练的,该知识与分配给该机器人的任务相对应。 当一个人开始谈论超出机器人权限的话题时,这将成为一个问题。 向披萨订购机器人询问披萨以外的其他信息,对话将很快消失。

为了解决这个问题,Facebook研究人员正在训练自然语言处理模型,以从许多知识领域提取数据,并将这些信息自然地嵌入到对话中。 未来的研究将集中在教机器人如何以及何时将对话从一般事物转移到特定任务上。

开发聊天机器人的最大挑战之一是如何让他们在入门之后进一步学习。 单词的含义会随着时间而改变,新的术语和行话可能在文化上变得重要。 同时,聊天机器人也不应太过暗示-微软的Tay机器人从在线对话中学到的东西太多,并且在24小时内变成了粗鲁的种族主义者。 Facebook教实验聊天机器人从良好的对话中学习,并分析他们正在聊天的人的语言,以查看聊天机器人说的是愚蠢还是愚蠢的东西。

很难确切预测Facebook在实验室中的突破何时会帮助创建聊天机器人,该聊天机器人可以进行至少有点像人类的对话。 您可以很快评估自己的结果。 Facebook研究人员杰森·韦斯顿(Jason Weston)告诉我:“我们相信,我们非常接近创建一个可以与人们交谈的机器人,从而使人们看到其中的价值。”

Source: https://habr.com/ru/post/zh-CN470746/


All Articles