
来源
山峰高高耸立
我跌落在脸颊上。
那朵雏菊还没有长大
我告诉自己。
罗伯特·圣诞节
人工智能(AI)或人工智能(AI)是一项快速发展的技术,值得比现在谈论的更多。 它与诸如神经网络和机器学习(物联网(IoT)最近已连接)之类的补充技术一起迅速发展,据传言,它甚至将占领整个世界。 并在我们的直接帮助下。 他们经常谈论和写作关于她的事情,写作和交谈。 AI已经用于复杂的建模,游戏,医疗诊断,搜索引擎,物流,军事系统等等,有望在可预见的将来覆盖并彻底“铲除”整个后工业格局。 他甚至开始写这样的文学作品:“从前,有一匹金色的马,金色的马鞍和一束美丽的紫色花。 那匹马带了一朵花到村子里,公主想到那匹马多么漂亮和漂亮就开始跳舞了。”
我能说什么 “马,他们是。” 是的,正如您所知,在村庄中发现了更多公主。但是,人工智能具有学习的能力,这与上述路线中令人难忘的Ilf和Petrov的Lapis Trubetskoy不同。 “第一块煎饼是块状的”不仅发生在文学上,因此,所有其他AI爱好者也应该为此做好准备。
然而,AI是技术人员,学者,记者和风险资本家不时重复的一种口头禅,旨在引起人们对人类以及自己和亲人问题的关注。 面对斯蒂芬·霍金(Stephen Hawking),比尔·盖茨(Bill Gates)和埃隆·马斯克(Elon Musk)等著名的科学和商业代表,一些专家最近担心AI的未来,因为AI技术的进一步发展可以在AI成为人类“生命”的主要形式时打开Pandora的盒子。我们的星球。 其他专家担心道德标准的发展,以遏制人工智能的破坏力(但是,人工智能尚未摧毁任何东西),指导其为文明的共同利益服务。
但是,例如,五角大楼已经确定,人工智能是关键领域,在这一领域中,必须做出最大的努力以防止中国和俄罗斯取得突破。 在这方面,在美国国防部长的领导下,正在建立一个适当的人工智能中心。
当前,在公共领域所谓的AI的重要部分只是所谓的“机器学习”(ML-Machine Learning)。 特别是在大数据ML技术的帮助下,当计算机程序被训练用于自动(或在人工控制下)决策时,它允许计算机程序从所有收集的数据中学习并以更高的准确性发布预测/预测。 通常,ML是一个算法领域,它结合了统计,计算机科学和许多其他学科的思想来开发允许您执行上述操作的算法。
顺便说一句,ML今天不是出生的。 它在行业中的作用通常在1990年代初就被理解,到20世纪末,像亚马逊这样有前途的公司已经在整个业务中使用了机器学习,解决了检测欺诈,预测供应链或提出建议等关键问题。给消费者。 在接下来的二十年中,随着计算机的数据量和计算资源的快速增长,很明显,ML很快将不仅可以管理亚马逊,而且可以管理几乎所有可以将解决方案与大规模数据联系在一起的公司。 机器学习算法领域的专家与数据库和分布式系统领域的专家合作,以创建可扩展且可靠的机器学习系统时,所得系统的社会和环境界限日益扩大。 今天,正是这种思想与技术趋势的融合被称为AI。
另一方面,从历史上看,“人工智能”一词早在1950年代后期就出现了,因此关于控制论发展的思想兴起(在大多数情况下,它不被视为“伪科学”)陷入了如此令人陶醉的科学家灵魂在软件和硬件中实施具有接近人类智能的智能的实体。 革命似乎是如此接近,人为的理性本质在我们当中,即使不是身体上的,至少是精神上的,本来应该看起来也是如此。 这个新名词很快就被科幻小说家所接受,但是在现实生活中,“新本质”的创造者并没有真正地接近上帝的成功,也没有真正地追求自然的成功(无神论者很常见)。
在那些日子里,术语“人工智能”是“高级”使用的,接近人们“推理”和“思考”的能力。 据专家称,尽管从那时起已经过去了将近70年,但所有过去的高层讨论和想法仍然难以捉摸,没有得到任何软件和硬件实施。 与过去的热情期望相反,当今所有的“真实” AI主要都形成于与低级模式识别和运动控制有关的技术领域。 在与学科有关的统计领域中,部分集中在寻找数据模式和创建逻辑相关的预测上。 也就是说,人们期待已久的AI革命尚未发生。
然而,与人类大脑不同,人类的大脑位于我们的智力之上,而人工智能并不依赖于碳原子,蛋白质寿命以及各种进化限制。 因此,他能够不断学习和改进,最终,他将使人类解决许多紧迫的问题-从气候变化到癌症。 MTI的物理学家,所谓的“人类未来研究所”的联合创始人马克斯·泰格马克尤其赞同这种观点。 在接受The Verge采访时,Tegmark展示了他对三种进化生活形式(在我们星球上)的看法。
生命1.0是细菌的特征,Tegmark称之为“通过简单的自我调节算法将小原子连接在一起”。 细菌一生中无法学习任何新知识,其工作机制极其原始-它们只能朝着食物更多的方向发展。 反过来,只有在进化变化的框架内,才有可能开发他们的“软件”(现代科学家现在很容易将现有的一切划分为软件和硬件)。
Life 2.0体现在人中。 而且,尽管一个人的身体也有严格的定义和有限的演变(“铁”),但他也以更完善的头脑(“软件”)的形式拥有巨大的优势,即可以自己学习的“软件”。 由于能够自行决定改进软件的能力,获得知识而不必等待进化的发展,人们开始控制这个星球,创造了现代文明和文化。 尽管如此,尽管具有所有优点,但我们的改进仍然存在局限性。 这就是为什么随着时间的流逝,寿命2.0将被寿命有限的3.0所取代(考虑到上述情况,做出这样的声明有些草率)。
生命3.0的特征在于,它不仅具有进化上的限制,而且还具有生物学上的局限性。 与以前的格式不同,人工智能将能够开发其软件和硬件。 例如,安装更多的内存来存储一百万倍的信息或获得更多的计算能力(顺便说一下,看看Tegmark耳朵后面是否有USB连接器会很有趣)。 与生活3.0不同,我们对生活2.0感到满意,尽管我们可以通过起搏器维持自己的心跳或通过平板电脑来促进消化,但是我们无法在体内进行根本性的改变。 好吧,也许可以在整形外科医生的帮助下进行一些矫正或植入芯片。 我们没有机会认真地提高自己的成长或在自己的大脑中加速思考一千次。 人类的智力通过生物学的神经联系起作用,而我们的大脑则受到限制,因此在出生时头部可以穿过母亲的分娩口。 科学家解释说,人工智能不受任何限制,并且可以不断改进。
然而,泰格马克似乎并没有考虑到基因设计的进展-时间不平衡,人们仍在学习调整身体以长腿,顽固的触角,增加分娩几率或为那些严重缺乏的人提供头脑。
泰格马克(Tegmark)指出,当今许多人将思想视为生物有机体的神秘特性。 但是,根据他的说法,这些想法是错误的。 他说:“从物理学家的角度来看,思想只是对信息的处理,而信息的处理是由基本粒子根据某些物理定律运动而来。” 物理定律不会以任何方式阻止创造出在智能方面比人类优越得多的机器(最好能更精确地知道什么是智能)。 此外,Tegmark强调,没有证据表明心灵取决于有机物质的存在:
“我认为没有秘密的调味料必须存在碳原子和血液。 我从物理学的角度多次想知道智能的极限是什么,每次我得出的结论是,如果存在这样的极限,那么我们离它非常非常远。 我们甚至无法想象他。 不过,我确信是人类将向宇宙呼吸,后来成为生活3.0-从我的角度来看,这听起来非常浪漫。”
作为回应,我想补充一点浪漫-但是我们是否被我们所有的“裂缝”称为AI? 至于“裂缝”。 如果生活3.0不知道局限性,那么最好知道哪些局限性:欺骗,冷漠,卑鄙? 也许有杀人的能力? 各个个人代表经常面临完全相同的问题,这些问题一再屈服于诱惑。
“每次进行特定研究时,我们都面临着思维的局限。 这就是为什么我相信,一旦我们设法将自己的思想与AI相结合,我们将有巨大的机会解决几乎所有问题,” Tegmark说,众所周知,人们会遇到很多问题。
那好 为此,正如他们所说,您不需要走得太远。 在过去的20年中,无论是在工业界还是学术界,在创建所谓的“智能增强”或IA(智能增强)方面都取得了重大进展。 在这种情况下,计算和数据可用于创建补充人类智能和创造力的服务。 搜索引擎也可以被视为IA的示例(它可以增加人类的记忆力和实际知识),以及语言的自然翻译(可以提高人们的交流能力)。 声音和图像的产生是艺术家创作的调色板和创造力的放大。 尽管此类服务可能包含高级推理和思想,但目前并非如此。 基本上,归结为使用模式或数值运算对数据集进行各种比较。 也许我们仍然会看到一些云服务,例如InaaS(即服务),可以帮助用户在不同的知识领域中更加明智地发展,但这仅仅是搜索引擎的发展,而不是人类智能的替代品。
还有一种“智能”事物,如“智能基础设施”(II-智能基础设施),其中计算,数据和物理对象的网络共存,并开始出现在运输,医药,贸易和金融等领域。 所有这些对个人和社区都非常重要。 有时概念II出现在有关Internet事物的对话中,但这通常是指在Internet上获取“事物”的简单问题,而不是解决与这些“事物”相关的大量问题,以便分析数据流并发现它们与外部的联系。与人和其他“事物”进行交互时,其抽象程度远不止是位。 总的来说,IA和II并不是真正的AI。
什么是“真实”情报? 是否有必要在创建AI的框架中模仿它? 当然,人类智能是我们所知道的唯一一种智能。 但是我们也知道,实际上,人们对某些判断不是很精通:我们有自己的疏漏,偏见和局限性。 人们会犯错。 而且,关键的是,我们并没有为了满足现代系统面临的AI角色而进行的大规模决策制定。 当然,您可以合理地认为,人工智能系统不仅可以模仿人类的智能,而且可以对其进行补充,纠正,然后可以扩展规模来解决人类面临的任意大问题。 但是,很抱歉,这已经来自科幻小说领域。 而且,这种刺激了小说70年的投机论据不应成为AI形成的主要策略。 显然,IA和II将继续发展,解决它们的特殊问题,但不会声称自己是“真正的” AI。 到目前为止,我们离实现“模拟人类”的AI至少还有很远的距离。
此外,IA和II的成功解决不足以解决AI的重要问题。 如果我们转向无人驾驶汽车,那么为了实施这种技术,将有必要解决许多与人类能力无关的技术问题。 一个智能的运输系统(这就是系统II)比那些松耦合,自我导向且通常不专心的人驾驶员更像现有的空中交通管制系统。 更准确地说,它将比当前的空中交通管制系统复杂得多,至少在使用大量数据和自适应统计模型来告知每辆汽车的每次操纵的私人决策方面。
然而,尽管人们对人工智能的未来抱有普遍乐观的态度,但专家们承认,人工智能具有严重的风险。 我记得斯蒂芬·霍金和其他人认为,人工智能将是人类历史上最糟糕或最好的现象。 此外,当人们谈论当前的工作完全自动化时,他们常常会忘记,展望未来会发生什么更为重要。
泰格马克在这个场合说:“事实是,今天我们面临着必须在第一个超级智能才浮出水面之前必须回答的问题。 此外,这些问题相当复杂,也许我们不迟于30年后才能回答。 但是,一旦我们解决了它们,我们就可以保护自己免受威胁。” “当我们今天的计算机非常容易破解时,我们如何确保未来的AI系统的可靠性? 如果AI比我们更聪明,如何使AI了解我们的目标? 人工智能本身的目标是什么? 人工智能是否能够解决许多美国程序员如今所期望的艰巨任务,或者人工智能会突然认为是俄罗斯联邦禁止IS的支持者还是中世纪的人? 人工智能发明后,我们的社会将如何变化? -当计算机死机时,由于失去了一个小时的工作,您开始变得紧张。 但是,想象一下,我们在谈论您正在乘坐的飞机的机载计算机,或者在美国负责核武库的系统-这已经变得更加糟糕了。”
但是,例如,如果AI或配备AI的机器人执行了伤害人的动作,那么谁必须回答? 这个动作可能是随机的,但这是公众面临的关于AI的自主性和责任的众多问题之一,当时AI的最先进形式包括无人驾驶汽车(也许是我们学会信任的第一个机器人),无人机甚至是作战工具,正在变得越来越普遍。 人工智能和法律专家正在设法弄清楚这一点,但他们没有一个简单的答案。 无论如何,这个问题在法律上仍然很困难。 例如,假设机器人和AI从其环境中学习,如何将程序员和所有者的责任区分开?
, , . , «» . . . – , . , ? , , . - .
, , «» ( , ). , , , ., «» . , , , , , . , , . - .
, , ? , «» , . ( ), , , « » , . , . , «» , . , «» «» … « »? , , , , . . , . - - ?
, - - . . . , , , , , . ? – , :
.
.
,
…
: radio.ru, The Verge, hightech.fm, vz.ru, anews.com, pcweek.ru, medium.com, Defense News
, ...,