我的算法有心理问题吗?



我的车有幻觉吗? 我市控制警察监视系统的算法是否患有偏执狂? Marvin是Galaxy的Android搭便车者,左侧的所有二极管都受其影响。 我的烤面包机有类似的感觉吗?

这听起来很有趣,但是直到我们了解我们的算法越来越像我们自己时为止。 我们对大脑的了解越多,我们就越会将这种知识用于创建自己的算法版本。 这些算法可控制自动驾驶汽车的速度,确定自主军事无人机的目标,计算我们对商业和政治广告的敏感性,在在线服务中寻找灵魂伴侣并评估保险和贷款的风险。 算法成为我们生活中几乎明智的背景。

今天在工作中使用的最受欢迎的算法是具有深度学习的算法。 他们复制人脑的架构,建立复杂的信息模型。 他们受过训练,可以通过感知来理解周围的现实,确定重要的事物,并理解其中的结果。 他们看起来像我们的大脑,他们出现心理问题的风险正在增加。

深蓝色算法在1997年击败了世界象棋冠军加里·卡斯帕罗夫(Garry Kasparov),使用了蛮力,每秒排序一百万个位置,并预测未来最多20个动作。 每个人都知道它是如何工作的,即使他们无法重复。 AlphaGo是一种深度学习算法,它在2016年击败了Lee Sedola,与众不同。 他使用神经网络来建立自己对游戏的理解,这被认为是所有棋盘游戏中最困难的。 AlphaGo通过观察他人和与自己玩耍来训练 。 程序员和围棋运动员对AlphaGo的非常规游戏风格感到困惑。 起初他的策略似乎不寻常。 直到那时,我们才了解他的想法,而并非100%。

为了更好地向您解释我的意思是反射,请考虑以下内容。 深蓝之类的程序可能在代码中有错误。 它们可能从内存溢出中掉落。 它们可能由于无限循环而瘫痪,或者给出了错误的答案。 但是,所有这些问题都可以由有权访问编写算法的程序源代码的程序员解决。

像AlphaGo这样的算法工作方式大不相同。 仅查看程序代码就很难看到他们的问题。 它们与信息的内部表示有关。 这种观点是一个不断变化的多维空间,类似于梦境。 解决此类算法的问题所需的心理治疗师既不多,也不需要。

乘坐无人车辆。 看到了现实世界中第一个停车标志的Robomobile在训练过程中已经看到了数百万个停车标志,在构造这种停车标志的心理过程中。 在不同的照明条件下,无论天气好坏,无论有无弹孔,停车标志都包含大量令人难以置信的各种信息。 在大多数正常情况下,机器人会识别出停止标志。 但是,并非所有情况都是正常的。 最近的一些实验表明 ,覆盖停车标志的一些黑色标贴可以使确定实际上是60 mph的限速标志的算法无效。 该算法遇到了与树的对比阴影极其相似的东西,开始产生幻觉。

算法有多少种幻觉? 为了找出答案,我们必须询问算法所有可能的输入数据组合。 这意味着某些事情可能以多种方式出错。 专家程序员早就知道这一点,他们使用它来创建所谓的 对抗性的例子。 麻省理工学院的MIT LabSix研究小组表明 ,通过向Google图像分类算法发布特殊图像并使用从中获得的数据,可以识别其弱点。 然后他们可以利用这些弱点欺骗算法-例如,使他相信X射线实际上是两只在草地上玩耍的小狗的图像。

算法也可能会犯错误,因为它们有时会感知与最终结果相关的环境特征,尽管它们与结果之间没有因果关系。 在算法领域,这称为重新训练 。 当这种情况在大脑中发生时,我们称其为迷信。

目前最大的算法失败之一仍然是所谓的。 “ 抛物线Google Flu ”(流感流行预测)。 Google流感使用人们在Google上搜索的信息来预测流感爆发的地点和强度。 最初,Google Flu的预测效果很好,但是随着时间的流逝,它们开始恶化,直到最后,该系统开始预测的流感病例是美国疾病控制中心登记的流感病例的两倍。 Google Flu作为算法萨满,只是没有注意所需的内容。

也许可以纠正算法病理。 但实际上,算法通常是专有的黑匣子,其商业法律禁止对其进行更新。 凯蒂·奥尼尔(Katie O'Neill)在2016年的《数学失败武器》( The Weapon of Mathematical Defeat)中描述了真正的怪胎游行,它由商业算法组成,其狡猾的病态破坏了人们的生活。 特别令人感兴趣的是划分富人和穷人的算法错误。 穷人更容易出现信贷问题,生活在犯罪率高的地方,并被其他有类似问题的穷人包围。 因此,算法会选择这些人作为目标,以欺骗他们绝望的广告,向他们提供贷,并派遣更多警察到他们的居住区,从而增加了警察将他们扣留在同一频率下犯罪的可能性在更富裕的地区 司法系统使用的算法为此类人员分配了较长的时间,减少了他们的假释机会,阻止他们出现空缺,增加抵押贷款利息,需要巨额保险费,等等。

这种算法恶性循环隐藏在由黑匣子组成的嵌套玩偶中:黑匣子算法将其隐藏在我们无法访问的更高维度的思想中,而隐藏在该算法专有权的黑匣子中。 在某些地方,例如在纽约,这导致提出了通过法律的建议,这些法律要求监测市政部门使用的算法的公平性。 但是,如果我们甚至无法检测到我们自己的认知失真,那么我们如何期望在我们的算法中检测到它们呢?

通过对人类数据进行训练的算法,可以获取我们的失真。 在普林斯顿大学的艾琳·卡利斯坎(Eileen Kaliskan)领导的最新研究中 ,发现基于新闻的算法很快就招致了种族和性别偏见。 正如Kaliskan指出的那样:“许多人认为汽车没有偏见。 但是机器会训练人类数据。 人们都有偏见。”

社交网络是人类偏见和仇恨的蛇巢。 在社交网络上花费大量时间的算法很快成为盲目的狂热分子。 他们对护士和女工程师有偏见。 他们误解了移民和少数人权利等问题。 再多一点,算法将开始像对待彼此的人一样不公平地对待人们。 但是算法天生就对它们的可靠性没有太大的信心。 而且,除非您以其他方式培训他们,否则他们将没有理由怀疑自己的能力不足(一切都像人一样)。

在我描述的算法中,心理问题的出现是由于训练数据的质量。 但是算法由于其内部结构而可能具有类似的问题。 他们在学习新信息时会忘记旧信息。 想象一下,您记得一个新同事的名字,却突然忘记了自己的住所。 在极端情况下,算法可能会因为所谓的 当整个算法不再能够学习和记忆新事物时,就是“ 灾难性的遗忘 ”。 年龄有关的认知障碍的理论基于类似的观点:当记忆超负荷时,大脑和计算机都需要更多时间才能找到他们所知道的东西。

当确切的情况发生病理性转变时-它取决于观点。 结果,人们的心理异常常常得不到解决。 诸如我的女儿之类的联觉主义者 ,其书写的字母与某些颜色相关联,常常没有意识到他们具有特殊的感知能力,直至青春期。 罗纳德·里根(Ronald Reagan)演讲分析的证据表明,他担任总统时患有痴呆症。 《卫报》的一篇文章描述了过去五年来在美国发生的大规模枪击事件,每10天中大约有9天是如何发生的, 通常是所谓的 “正常”的人不能忍受迫害和沮丧。

在许多情况下,需要连续几个中断才能检测到问题。 精神分裂症的诊断至少需要一个月才能观察到症状。 社会人格障碍-精神病和社会病的现代术语-无法在18岁以下的人群中诊断出来,只有在一个人的行为障碍长达15岁时才能诊断出来。

大多数心理疾病没有生物标记,就像AlphaGo代码中没有错误一样。 我们“设备”中的问题不明显。 她在我们的“软件”中。 破坏大脑的多种选择使每个心理问题都独一无二。 我们将其分类为广泛的类别,例如精神分裂症阿斯伯格综合症 ,但大多数疾病的范围都很大,某种程度上涵盖了大多数人可以发现的症状。 在2006年,心理学家Matthew Keller和Joffrey Miller写道,这是大脑结构的必然属性。

在我们这样的头脑中,很多事情都会出错。 荣格(Carl Jung)曾建议在每个聪明人中都存在一个疯子。 我们的算法越像我们,他就越容易隐藏在算法中。

托马斯·希尔斯(Thomas Hills)是英国考文垂的沃里克大学心理学教授。

Source: https://habr.com/ru/post/zh-CN412323/


All Articles