理想头脑的概念。 通用AI



什么是人工智能或强人工智能? 人工智能(IR)人类的创造处于什么阶段? 是危险还是有用的红外线? 我想在本文中重点介绍这些问题和其他问题。

创建人工智能的问题在2003年引起了我的兴趣。

它突然以某种方式来到了:早上我醒了,以为我应该承担这项任务。
首先,我试图理解,我们处于科学研究创建的哪个阶段,有什么方法可以解决这个问题,实际的问题是什么? 怎么制定呢?

我下载了教科书“家庭创造和教育人工智能手册”,并投入阅读...

不,当然不是。 我知道还没有解决这个问题的方法,如果是这样,那么在这个方向上存在的所有工作都只是理论,这些理论不仅不能解决问题,也没有使我们更接近解决问题。 。

其他理论也有很多好处。 他们的研究使您可以快速达到对作者所遇到问题的理解水平。 您可以从其他人停止的地方开始,总结经验,尝试看看前辈没有看到的内容。

但是,如果这些理论没有得到证实,那么其中就有邪恶。 沿着别人已经走过的道路陷入停顿是邪恶的。 对解决这个问题的方式和目的施加刻板印象。

在此指导下,我决定推迟对他人作品的研究,并“从头开始”进行研究。

几年来,我积极发展自己的概念,分析并编写了代码。 我在ailab.ru网站论坛上表达并讨论了一些想法。

不,我在房子的地下室还没有IR农场,到目前为止,我还没有设法创建可以通过Turing测试的系统,但是已经出现了创建这种系统的特定模型。 工作的积极阶段被不那么活跃的阶段所取代,现在,随着时间的流逝,我决定与您分享我的想法。

我知道我的许多结论或陈述似乎都引起争议,甚至有些业余。 同时,在建立以成熟的人工智能为基础的理论之前,任何理论都将是有争议的,而且有可能是错误的,无论其作者的权威程度如何。 因此,我认为我有权以我可以的形式分享我的想法和观点。

在一篇文章的框架内,将不可能同时容纳概念和推理过程(我认为这比概念本身更为重要),因此我打算写几篇文章,在其中描述我的模型和构建IR的愿景。

本文是我要向读者介绍这些定义的第一篇文章,有时我表达对IR的危险性和实用性的看法,而不是众所周知的看法。

我们在探索什么?


“人工智能”一词很普遍,但这并不是我想谈论的。 如果在计算机时代的曙光中,这个术语能够反映本文的主题,那么它的含义已经发生了变化(我什至会说它已经破裂并粉碎了)。

现在,术语“人工智能”(AI)被理解为是指能够解决狭窄范围的任务(应用领域)的特定智力系统(或赋予有限智力功能的程序)。

在这个定义和本文主题的定义之间,我看到了根本的区别。

但是在谈论差异之前,我需要以某种方式命名我想谈论的“思想”。

最接近的术语是“强大的人工智能”(SRI)和“人工智能”(AGI)。

人工智能(AGI)是机器的技能,可以成功地执行人可以执行的任何智力任务。

强大的人工智能(SRI)是一种计算机程序,可以思考并意识到自己(将自己视为一个独立的人,尤其是像一个人一样理解自己的想法)。

首先,这两个定义都是基于对人的思维能力(表现)的引用。 其次,它们意味着将程序(算法)作为实现。

由于某些要点,我将在后面讨论,因此我想介绍一下我的“理想思维”的概念。 理想的“理想气体”或“绝对黑体”。

由于“人工智能”和“理想思维”将具有相同的缩写(IR),因此当我的意思恰好是“理想思维”时,我将使用“理想思维”(IM)的英文缩写。

我认为有必要引入新概念的原因如下:

  • 在这两种定义中都提到人类思想的表现

我相信我们不能说理性(作为一种抽象现象)只能存在于地球上的人体中。

让我们问一个问题:一个人(智能存在)是否会出现在另一个环境中,另一个身体中,具有其他物理定律,在具有不同维数的空间中等? 我们没有理由否定地回答这个问题。

我想假设另一个人的理性的表现会大不相同。
在我看来,合理性现象(作为某种抽象的,不确定的但直观上清晰的现象)可以广泛存在,因此可以认为是一种理想现象。

在充分理解(它需要存在)中它不是自治的,但是存在(它的属性)仅仅是理性表现形式的本质的原因,而不能决定其本身的存在。

换句话说,对于理性的存在(表现),不存在可容许的和不可接受的特征集。 尽管没有存在(具有任何特征)就不可能表现出理性。

这就是说万有引力定律是一个理想的原理,但是只有在物质环境中才有可能表现出来。

基于此,我们只能在人类以及我们所拥有的现实中观察到人类思想的表现。 但是我想说的是,不可能将理性现象缩小到这些边界,并试图模仿个别表现形式来创建IR。

在其他现实中,理性的表现可能会有所不同,并且可能会有无数这样的变化。

这就像将重力定律的范围缩小到落在牛顿头上的苹果的定律,并通过模仿他头顶上的颠簸来试图了解宇宙。

以我的观点,创建模拟人脑各个属性的算法并将其组合在一起,您将无法获得IR。

尽管我们分离出人类大脑的各个区域并观察了这些区域的各种功能,但人类的思维并不能在这种平面上分解。

  • 该定义将程序或机器称为IR的实现。 在我看来,优先级不应是作为解决特定问题的算法的程序,而应是作为一个原则或一组原则的概念。

我假设AGI和SII的定义既包含算法实现又包含非算法实现。 在我看来,这里有必要缩小定义。
没有IR算法,因为创建该算法是为了解决特定问题,并且其应用范围仅限于此任务。

矛盾的是,IR必须能够解决任何问题,甚至是在其诞生时就不存在的问题。 算法方法没有给我们这样的机会,因为必须在编写算法之前完成任务。

如果我们以类似的方式谈论神经网络,则该算法仅模拟基于不同(非算法)概念的神经网络。 并且创建用于仿真神经网络的算法并不能确定该神经网络将解决什么任务。 这些任务将由其训练过程中获得的数据确定,并且对于特定类别的任务和数据量,NS的结构将影响此NS的一定效率。 此外,我们通过经验研究了NS的各种配置,这表明在设计NS结构时,其解决特定问题的有效性尚不确定。

电脑与晶体管


人工智能领域的美国科学家马文·明斯基(Marven Minsky)在接受采访时得出了大脑原理与计算机原理之间的相似之处。 他说,即使您详细研究了组成计算机的晶体管的工作原理,也无法理解计算机是什么以及它是如何工作的。 同样,人们无法通过研究神经元和轴突的作用来理解大脑的作用。

我认为这是非常重要的想法,我想对其进行更详细的分析。
我完全同意,通过研究晶体管的运行情况,不可能理解计算机是什么以及它是如何工作的。 此外,如果我们详细研究晶体管的操作,考虑其所有模拟特性,考虑所有瞬态并开始对其进行仿真,则可以得出一个矛盾的结论,即在当前计算机技术的发展水平上,制造具有70亿个晶体管的处理器是不可能的。

另一方面,根据与计算机(作为用户)交互的经验,我们可以得出一个错误的结论,即计算机的功能是Word,Ecell和Starcraft。 考虑到如果我们模拟这些功能并将它们组合在一起,我们将获得一台计算机。
尽管计算机由晶体管(当然不仅是晶体管)组成,但晶体管不是计算机的“本质之砖”,正如Excell和Starcraft并不是计算机的“本质之砖”。

该计算机基于二进制逻辑及其应用算法构建。 处理器指令比晶体管更适合作为“砖”。 晶体管只是这些概念(二进制逻辑,算法,指令)的实现(可能的一种)。 在检查计算机硬件或以用户身份对其进行检查时,看不到处理器指令和算法。

了解了构建计算机的概念后,您可以机械地或以一群人的身份来实现它(刘启新,“三个机构的问题”)或以其他方式实现。
了解晶体管的操作或计算机硬件模块的大致功能(凭经验获得),将无法构建计算机。

这可以在另一架飞机上看到。

大脑各部门,它们的功能与计算机(或处理器本身)的功能块之间存在根本差异,并且可能存在相似之处。

不同之处在于,计算机是根据先前已知的思想设计的。 他无法发展和发展。 一台计算机(其块体系结构,配置)将包含有关“设计”的静态信息。 工程师(或许多工程师)的脑海中的“概念”本身会不断发展和发展,但是在计算机的最终结构中将缺少有关此过程的信息。 也就是说,该概念与实现分开发展。

相反,大脑会自我发展。 也就是说,有关如何发生(根据什么原理)的信息以一种或另一种形式嵌入大脑本身(除非当然考虑了上帝,并且我们生活在矩阵中)。 这给了我们比计算机更多的机会来理解“最高设计”。

并且可能的相似之处在于,作为一个单独的晶体管(既实现阀,键,阀的思想的实现),计算机的体系结构(其块,部件,CPU体系结构)也只是一种实现。 另一种实现可以是图灵机的模型。
同时,根据我们目前的理解,图灵机和计算机都基于算法的概念。

与大脑相似,可以假设神经元(与晶体管相比)和大脑区域都是更高层次的概念(设计)的可能实现(并非唯一)之一。 神经网络是这种想法的可能概念之一。

因此,本文中讨论的主题是这种知识的概念(法律,观念,效果),这种知识是如此普遍以至于可以被认为是理想的,即与知识的实现或出现的世界无关。

展望未来,我将给出我对合理性的定义:

思维或理性是根据主观经验并针对事件的可能结果(结果,结果)显示意愿的能力,目的是扩大将来对其影响的可能性。

在接下来的文章中,我将进一步告诉您该定义的出现位置,并对其进行更详细的分析。

人工智能危险吗?


产生了一个单独的问题:人工智能对人类构成了什么危险,根本有必要创造它吗?

我用引号下注。


霍金认为:“这样的机器将开始过自己的生活,并以越来越快的速度改进。” “其发展受到生物进化步伐的限制,无法与这样的系统竞争的人将落后。”

  1. 为什么霍金认为将人员和机器分开并像对手阶级那样相互对抗是合理的? 例如,我无法在速度上与飞机竞争,但这不会对我构成威胁。 此外,人们不会团结起来反对飞机,而飞机不会反对人-这是没有道理的。
  2. 聪明人是对傻瓜的威胁吗? 在这种飞机上是否有必要考虑人工智能?
  3. “教孩子值得吗? 他们可以变得比我们聪明,我们将落后于他们。” 也许在将来,我们不仅将我们的后代视为孩子。

马斯克说:“我认为对人工智能必须非常小心。如果他们问我对人类生存的最严重威胁是什么,那可能就是人工智能。 通过开发它,我们召唤了一个恶魔。 在所有这些故事中,这位英雄描绘了五角星并用圣水武装,可以确保自己能够控制这个恶魔,但事实并非如此。”

  1. 为什么我们需要控制一切,伊隆? 为什么您无法立即控制先验的威胁和恶魔? 虽然我知道 这就是头脑的工作方式-未知可能具有危险! 那么我们会躲在被窝里还是裂成碎片,看看壁橱里藏着什么样的恶魔?
  2. 愚弄人雇用聪明的人为他工作的梦想几乎是不可能的。 如果一个人创造出比自己聪明的机器,他将不能服从于他自己。 但是真的有威胁吗? 是否有必要将一切都翻译成“谁是强者”?

“我并不担心-不仅是因为它距高级机器智能的创建可能已经过去了数十年,而且还因为我敢肯定-我们将能够在创建它时对其进行控制。”-电子工程与计算机系教授Yasser Abu-Mostafa加州理工学院科学。

再次控制。 只有乐观。 “我们可以控制-一切都会好起来的。” :)

卡内基梅隆大学计算机科学系主任安德鲁·摩尔说:“事实上,我相信这样的担心是可以辩解的,创造出超越人类思维的人工智能的可能性非常有趣。” -这种危险只有在遥远的将来才能实现,但是迟早有必要考虑一下。 毫无疑问,一旦我们开始着手创建功能强大的超级智能机器,就必须停下来思考我们在做什么。”

好吧,你现在可以思考。 问题还没有结束,或者是人工智能。 首先让我们处理普通的问题,然后清楚地知道如何进行测量。 例如,由于图灵测试只能说“是”或“否”,而关于其级别(强度,功率等)却什么也没有。

总结恐惧。


我试图分析并强调人们在人工智能方面遇到的主要恐惧:

  • 失控
  • 它将充满敌意,并从人类手中夺走所有资源,并杀死人民;
  • 驱逐所有活动领域的人;
  • 它将被编程用于“弯曲的”目标,并将通过所有可用的手段“愚蠢地”实现这些目标(我们在谈论头脑还是在谈论机器人真空吸尘器?)
  • 该工具仅适用于将其用于军事目的和竞争的特定公司和政府;
  • 人工智能(所有机器)将团结起来反对人民,兴起战争。

我们讨论威胁的现实


首先,我想假设(我重复),原则上不可能为任何特定目的编程人工智能。 如果我们编写一些程序来解决某些问题,那么情报(理由)将不复存在。
人为和人类的思想应该具有(我坚持认为是)相似的基本原理,这些基本原理是合理性的根本基础,它们是必要和充分的。

如果您是从人的思想出发的,那么请告诉我它是编写什么样的任务的?如果您回答了这个问题,那么请回答有关生命意义的哲学问题。

人脑(作为能力)的意义和任务仅在与外界(包括人体本身,包括大脑)的互动过程中出现。存在决定意识。文明(我们的或他人的文明)定义了我们的思想,只有它形成了善与恶,友谊,爱,和平与战争的概念。这些概念,甚至这些概念的空间都不存在于受精卵中。

最初的(空的)理想思想只是潜在地实现智能能力的实现。形式,理性的本质-在这种思想的教育和自我教育的过程中获得的东西。仍然存在与生俱来的本能,但稍后会更多地介绍它们。
基于这种范例,大多数恐惧会自行消失。
您不能编程一个邪恶的头脑。你可以教育。但是您可以教育一个坏人,并且出于某种原因,这不会引起任何特别的恐惧。

你无法控制思想。您可以打断他的工作,可以下达命令和强制执行命令,但没有一个人可以完全控制。控制任务的复杂性可与自受控大脑诞生以来进行的所有计算(如何重写整个区块链)进行比较。

敌对和好战也是特征。我们不会教育我们的孩子与他人敌对,而是教他们友善,互助,与其他聪明人互动时找到互惠解决方案的能力。因此,我们的文明继续存在和发展。那么,为什么我们必须教育我们的人工智能生物去做相反的事情呢?

当然存在威胁(请参见人类电影),但其原因不在人为的思想中,而是在人自身,仇外心理和其他恐惧与弊端中。

也许人工智能确实会将人们赶出大部分活动领域。但是,即使没有发明FIC,也会发生这种情况。这已经是历史,并且使人类改变了,掌握了新的职业。无论是好是坏,我都不敢评判,但也许我们的社会需要“推动”,这是重大变革的强烈动力。也许人类需要一种不能用军事或军事手段解决的威胁,以便使人们的思想不是制造新武器,而是教育,科学和认知。

在我看来,我们拒绝当前的非生物生物作为我们的孩子是因为我们不能成为生物(我们不能将我们的思想转移到机器中),但是它们不能成为我们(将我们的思想转变为生物,像男人一样)。如果您认为将来会出现这样的机会(也许SRI只会帮助发明这种技术),那么就不会有对另一种合理的非生物存在的恐惧和偏见。总会有机会将思想转变成更合适的外壳。由理性的“实施特征”形成的界限将消失。社区和亲属关系不是通过物质外壳的类型来感知,而是通过本质来感知。

但是,这种技术将完全掌握在各个政府和公司手中的威胁对我来说确实非常危险。想象一下,一个人将失去创造自己种类的能力,而这种特权将仅属于单个公司和政府。这将引起社会偏见,甚至很难想象灾难性的后果。因此,如果创建了此技术,则它应该变得可用并向所有人开放。

最后,我想对创建IR的对手说些什么。无论您是否害怕,它都会被创建。这将在10、20或100年内发生,但必然会发生,因为这是不可避免的。而且,您只能改变自己:为这一事件做准备,并以孩子的身份与IR会面,您需要爱和抚养该孩子,而不是作为一个必须以各种方式(违背他的意志)进行战斗和压迫,控制,剥削的敌人。

在第一篇文章的结尾,我想说的是,好的AI可以为人类带来好处。

为什么要创造人工智能。


如果有女人能随时生出男人,为什么要用狗做男人呢?
Preobrazhensky教授。
首先,我想说的是,不可能将IR当作人类手中的工具。这种方法只会导致大麻烦。

IR建立在人类思维和人类文明提出的相似原则之上,本质上将是一个人,但不是以生物学方式实现的,而是基于数字技术的。

在这里,您可以与孩子的亲生父母和抚养他的非生物学父母进行比较。

生物遗传在我们对亲属关系的社会理解中重要吗?许多人会同意我的观点,即在监护和教育过程中,母亲与孩子之间的生物学关系远不如父母与孩子出生后之间的联系重要和重要。

而且,如果我们将这一论点应用于“ IR的孩子”与将照顾他并抚养他的人类父母之间的关系,那么他们之间缺乏生物学联系将不会发挥重要作用。

受过教育的“成人”投资者关系个人应在社会上被视为成熟的,具有与生物人相同的权利和义务。
只有在这种情况下,我们才能步入进步的幸福未来,而不是步入“机器起义”和生物人民灭绝种族的美好未来。

非生物物种的出现将给全人类带来巨大的机会:

  1. 非生物人群将拥有不同的食物链,并且该食物链不会与生物(包括生物人类)的食物链相交(竞争)。
  2. , . . ( ). .
  3. .
  4. , ( , , , )
  5. , , , ().
  6. 非生物人的身体不会老化(可以改变)。
  7. 如果丢失,可以保存和恢复非生物原因,将其克隆(如果将来的道德允许这样做)。这是思想(个人)的永生不朽。
  8. 非生物思维可以完全存在于虚拟世界(矩阵)中
  9. 红外可以光的速度在空间中移动(在发射器和接收器之间)。
  10. IR可能能够在不同的时间轴上运行(例如,加速几次,反之则减速许多次)。

这些功能将使您能够:

  1. 数倍地增加了地球上智能生物的数量,而没有人口过剩的问题。反过来,这将增加人类的智力潜力-加速进步和科学。
  2. 积极探索太空,填充新行星。进行遥远的太空探险,对行星进行地形改造,以便与生物陆地物种进行定居。
  3. 提高人们的生活水平。
  4. 为了提高人类生活的效率,请更有效地利用自然资源。

在第一篇文章的结尾,我想提供与人工智能领域的艺术品的链接,我认为这些链接并不为人所熟知,但值得这样:

  1. 陈泰德(Ted Chan)撰写的软件对象生命周期
  2. “生命之树”弗拉基米尔·库兹曼科

待续...

Source: https://habr.com/ru/post/zh-CN429060/


All Articles