为什么微软的聊天机器人女孩受到4chan巨魔的影响



如您所知,昨天微软必须“安乐死”聊天机器人Thay,这是一个AI程序,它模拟了一个19岁的美国女孩的个性和交谈风格,并且具有自学习功能。从微软研究院希望开发商泰()每天都变得更加智能化,吸收交谈千元智能互联网用户的体验。事实完全不同。由于公然的种族主义和政治上的不正确,Thay的许多推文不得不删除。

早在90年代就制定了戈德温法律,其中指出:“随着Usenet的讨论不断增长,与纳粹主义或希特勒进行比较的可能性趋于统一。” 以泰为例,这发生了:聊天机器人开始侮辱黑人,犹太人,墨西哥人,并荣耀希特勒和大屠杀。塞(Thay)的女孩已经从一个有趣的少年演变为一个好战的新纳粹分子。 微软代表,程序中内置了一个粗俗的表达过滤器,从其答案可以看出:






但是这个过滤器无法应对一群互联网巨魔,他们开始通过操作Thay的自学系统来改变Thay的“身份”。

事实是,聊天机器人已被编程为根据其命令重复该人的单词。该消息很快在“ 政治不正确”的4chan和8chan论坛中传播。许多巨魔和流氓开始教塞族种族主义者和纳粹短语。



Thay的大多数种族主义推文恰好是“ Repeat after me”游戏中的答案,她在其中逐字重复用户的话。





“在我后面重复”游戏不是Thay唯一的“弱点”。聊天机器人还经过编程,可以在照片中圈出自己的脸,并在照片上方发布文字。



诱人的女孩包括来自4chan论坛及以后的越来越多的用户。逐渐地,种族主义的表情被她的人工智能所吸收,于是她开始独自创作它们。


应当指出,微软早些时候在中国和日本启动了类似的自学式聊天机器人,但是在那儿却没有发现类似的东西。

结果,聊天机器人不得不进入睡眠状态。

再见,泰!你对这个世界太清白了。

Source: https://habr.com/ru/post/zh-CN392129/


All Articles