
尽管聊天机器人仍然不能很好地支持与人的对话(尽管他们在此方面一直在不断改进),但它们在处理文本方面却表现得更好。 您可以在Web应用程序的帮助下验证此语句,该应用程序的基础是人工智能(其弱形式)。
因此,如果用户开始撰写新闻文章,则机器人可以完成该文章。 而且,该技术相对较好地支持通过通信与人的“通信”。 如果您问“我今天应该做什么?”,该程序将给出完全可理解的答案。 还有一个Web服务形式的解决方案,即
TalkToTransformer.com 。

由加拿大工程师亚当·金(Adam King)设计。 值得注意的是,他创建了服务的外部部分,但基于它是由研究组织OpenAI开发的AI。 今年早些时候,OpenAI推出了自己的语言AI系统GPT-2,而TalkToTransformer是尝试该系统的机会。
以前,它仅适用于测试开发人员选择的科学家和记者。 根据作为
GPT-2基础的神经网络的类型,一种服务称为“变压器”。

如果您想了解AI的语言功能,那么没有比TalkToTransformer更好的选择了。 该服务非常灵活。 它可以识别多种类型的文本信息,包括配方,程序代码,歌词等。 他还知道如何识别包括《哈利·波特》和《指环王》在内的各种文学作品的英雄。
同时,系统的可能性是有限的-它不知道如何进行大规模“思考”,而是肤浅地起作用。 AI撰写的文字可以有故事情节,英雄(如果是故事)。 但是,所有这一切在逻辑上是没有联系的,也就是说,英雄出现和消失,他们的行动是随机的。
对话建立在相同的随机原则上。 如果对话或多或少是和谐的,则比服务的功能更有可能是这种情况。 但是,简单的AI形式相当好。 正在进行的工作以牺牲网络资源和其他地方为代价。
早先在哈布雷(Habré)上有报道说,
GPT-2在普通的互联网页面 (约800万个站点,40 GB的文本)
上进行了培训 。 培训来源的选择包括对reddit评分很高的网站-这样做是为了防止垃圾邮件和广告资源阻塞数据源。
形成对话时,您需要提交词组的开头。 例如,“火星是……”,然后系统对句子进行补充。 该网络可以给出答案,而无需对特定任务进行特殊的额外培训。

