免责声明我对自己表达真正的原创思想的能力表示怀疑。 最有可能的是,我远不是第一个问这些问题的人,而且很可能已经对它们做出了一些易于理解的答案。 因此,键入此文本,不会令您感到惊讶或钦佩。 我希望熟悉现代意识哲学的人们会发表评论,并为我提供一些有趣的德国姓氏认真思想家的作品的链接。

不久前,有一篇关于哈布雷(Habré)的
帖子 ,评论使我想到了几个相互关联的问题。 我想与社区分享这些想法的结果(或缺乏想法,这里是外观)。
什么是痛苦?
一旦我牙疼。 我躺在沙发上,试图不注意它。 我以为疼痛只是进入我大脑的信号。 与去往系统单元PS / 2连接器的接线中是否存在电压相同的信号。 就其本身而言,它不包含任何语义,而是我的意识选择了如何解释它。 如果我不再将其视为痛苦,而是忽略它或只是“注意”,对我来说将变得更加容易。
但这并没有变得容易。 用这种简单的方法,我发现
Qualia会疼痛并且不会归结为简单的信息传递。
我们如何理解它会伤害他人?
我在神经生理学方面并不特殊,但是他们说大脑中存在某种镜像神经元。 当我们看到另一个人如何执行某些动作时,镜像神经元将执行其逆向工程。 我们正在尝试了解这个人的头脑应该发生什么,以便他以这种方式行事。 从某种程度上说,即使我们自己也开始感觉到,根据我们的假设,他应该感觉到。 看到有人吃柠檬,我的che骨会减少。 例如,如果有人在地板上喊叫,哭泣,扭打,滚动……这可能使他感到痛苦。 最有可能的是,看到这样的景象对我来说是不愉快的。 我将开始同情这个人,并且如果有能力,甚至会采取一些措施来止痛。 该死的镜像神经元。
实际上,我们无法保证对方确实感到痛苦。 例如,它可以是模拟器,也可以是演员,就像
米尔格拉姆实验中那样 。 但是,可以通过将模拟器放在断层扫描仪中并查看当前大脑的哪些部分处于活动状态来轻松解决这一问题。 但是,这也是一种行为,尽管这是一个“较低级别”的行为。 结果,这全都归结为一个非常简单的标准(我什至会说太简单了):我们相信一个
人如果表现得像我们经历痛苦那样会经历痛苦 。
如何理解对方是一个人?
有这样一个著名的思想实验,叫做
哲学僵尸 。 它的本质很简单:从外部观察者的角度想象某种行为与人的行为完全没有区别,但是完全没有主观经验。 如果您用针刺他,他会说“啊”(或少一些检查),拉开他的手,相应的面部肌肉会收缩,甚至断层扫描仪也无法抓住他。 但是同时,它内部没有任何感觉。 他根本就没有这个“内幕”。 这样的东西被称为“哲学僵尸”,实验的本质是这种假想生物的存在不会导致明显的矛盾。 也就是说,似乎是
尽可能的 。
回到上一个问题,我们确实没有任何可靠的机会来了解对方是否由于疼痛而感到疼痛。 我们可以听我们的镜像神经元,或者,如果这不足以使我们的头脑成熟,请使用Occam的剃刀。 说“哲学僵尸”是一个额外的实体。 在没有任何明确原因的情况下,假设所有人或多或少是相同的,这要比假设相反的人更具逻辑性。 但是,Occam原理仍然是一种启发式方法,而不是一成不变的定律。 昨天对我们来说似乎多余的实体今天进入我们的房子,用他们的脚打开门。 如果您不同意,请尝试想象如何向德cri克利特解释量子力学。
机器人梦想电动机架吗?
在我上面写的关于该帖子的第一条评论中,
NeoCode用户表达了以下想法:
首先,“强大的人工智能”不是活的生物,将不会经历痛苦或孤独,仅仅是因为其本质最初是不同的,它没有数百万年的进化和自然选择,因此是低级的生物学机制和程序。 除非您明确编程,否则他甚至都不会具有自我保护的本能。 但以其纯粹的形式-不会; 您可以创建一个具有意识并能够解决复杂问题和学习的AI,而通常不会具有自我保护的本能。
这是重要的一点,由于某些原因,许多人默认情况下不了解“人性化”人工智能。
在这种情况下,当然有一个合理的内核。 人类的素质不能被无意识地转移到假设的人工智能上。 在这方面,95%的科幻小说和99.9%的居民都是绝望的天真。 但是我要说的是:也不要毫不犹豫地剥夺AI的人类素质。 其中一些可能比人们预期的更为根本。
考虑这种假设情况:为了让AI做我们需要的事情,而不是做它想要的事情(解决数独问题可能比参与我们的项目更“有趣”,因为这将有一个最后期限) ,我们为其添加了特殊的输入信号-从而使AI的主要目标(即其
目标功能的主要组成部分)是将这一信号最小化。 因此,当截止日期临近时,我们踩下踏板,将电压施加到电线,并且AI开始积极考虑如何消除此电压。 而且越活跃,我们就越努力。 并且由于脚踩踏板的压力与不完整的项目有关,因此AI除了完成该项目外别无选择。 好吧,还是要砍掉一条飞过的军用无人机,以使其击倒踏板操作员的大脑。 谁知道,这个强大的AI。
但是,我分心了。 告诉我,这个假想的信号是否意外地使您无动于衷? 在这种情况下,可以说AI痛苦吗?
人与人是狼,僵尸是僵尸
我们什至怎么能知道AI是否正在经历Qualia? 就哲学僵尸而言,奥卡姆的同理心和剃刀就在我们这边。 但是,人工智能是哲学的,而不是僵尸。 也就是说,提出关于他的这个问题是有道理的,但是他并不像人类。 因此,我们不能仅凭与自己的类比就说他有某种感觉。
有人(例如,上面引用的评论的作者)会说我们可以肯定地说相反的话。 没有理由相信AI确实很痛苦,如果没有,那么我们就不会这样认为。 我想回答如下:想象一下,一种思想,感觉,却完全不人道地造就了你。 他有什么理由认为您正在经历夸张? 当然,除非这种生物不具备真正适合他人头部的超验能力; 寓言地,
成为蝙蝠 。 但是,这已经超出了我们的类比范围,并进入了关于神的对话的范畴。
人类沙文主义
在前面的所有段落中,我们都谈到了痛苦。 疼痛可以说是人类感觉中最具特征的一种。 但是,谁说一切都限于人呢?
如果原则上假想的外星人的思想(即使不是人工的,外星人的或其他任何事物)原则上也能够体验到夸张,那么他们可能会与一个人正在经历的本质上有所不同。 一个怪诞的例子:II型婴儿来到他父亲科学家那里,说他正在经历
某种闪烁 。 是好是坏? 他应该给他糖果作为奖励,还是安慰一下他的头,甚至系上安全带,因为这里什么也没有?
在前面的所有段落中,我提出的问题都没有得到回答,并且基本上没有说明任何内容。 现在,我敢于断言:
人类道德还没有准备好使非人类思想成为成熟的主题 。 我们可以谈论“人工智能的道德问题”,将人工智能视为某些人对他人有利或不利的一种手段。 但是,如果我们尝试从AI角度考虑道德问题,我们将不会成功。 这并不是说我们没有答案-我们甚至没有适当的概念性工具来正确提出问题。 也许我们还不具备。 也许这是一个根本无法恢复的差距。 当然,如果人工智能完全需要人工智能,他将必须发展自己的伦理。
然后决定是否值得将一个人作为主体,呵呵。