有能力,但没有理由:人工智能无法应对的任务

圣彼得堡国立大学信息技术系教授Tatyana Gavrilova解释说:“汽车需要决定是谁牺牲的-是车内的人,还是冲进车轮的人”。

从活脑到人工智能


在过去的五年中,围绕人工智能的大量出版物,演讲,恐惧和炒作活动引起了人们的讨论,炒作和激进广告。 这主要表示猜测和亵渎。 相互竞争的新闻门户网站讲述了神经网络如何学习另一个神奇的技巧。 应该理解,人工神经网络不是大脑的模型。 神经生理学家指出,大脑的机制仍知之甚少,其模型远非数学形式化。

2013年,欧盟委员会评估了“人脑计划”研究项目,并拨款10亿美元用于研究。 该项目的目标是创建人脑的全功能计算机模型。 介绍大脑的复杂性:神经元如何相互连接和交互,如何形成记忆以及做出决定。 在2019年的欧洲会议上,神经科学家,人类大脑计划的负责人和创始人亨利·马克兰(Henry Markram)作了演讲。 他和他的团队展示了大脑的图像,并从断层扫描仪的不同侧面对其进行了照明,强调他们越深入大脑,就越不清楚其工作原理。 这些年来,它们一直在沿着微型化的道路前进,但是很明显,需要大脑的宏观模型。 在这里,您可以用一个众所周知的比喻进行类比:无论蚂蚁在电视中爬了多少,它仍然不了解它是哪种设备。

聊天机器人说话但听不懂


第一个会话程序“ Eliza”是在60年代开发的。 她的工作就像一场心理治疗课。 对话示例如下所示:
你好 你感觉怎么样
-我的头好痛。
-这种情况多久发生一次?
“每次我和妈妈说话。”
“你和妈妈有问题。” 告诉我们更多有关此的信息。

该程序包含一组空格。 识别每个句子中的关键字并创建对话的幻觉,一点也没有任何意义。 因此,Eliza可以熟练地维持几个小时的对话,从而给人们留下良好的印象。

今天,来自Yandex的Alice是同一个Elisa,具有连接的服务平台和更丰富的词汇。 这种聊天机器人的所有智能都归结为再培训。 如果我们为他们指出答案是错误的,不合适的,那么它将在将来淘汰他们,并留下合适的好答案。 该程序的真正合理性,不仅是确定图片中显示的内容或将口头表达转换为文本的能力,而且是理解信息的含义和思考的能力,只有在连接到知识库时才会出现。 这是对世界秩序的某种理解。 尚无程序可以执行此操作。 具有知识库的人工智能称为符号AI(符号AI)。

现在正在积极使用两个方向:人工神经网络和机器学习。 它们的发展不是在科学家的指导下在科学实验室中进行的,而是在IT公司中进行的。 人工神经网络的程序员和开发人员承认,除了大脑之外,没有其他思考。 因此,如果他们想创建一个智能系统,那么他们就不得不模拟大脑,因为仅此而已。 但是,对于那些能够跨越知识表示和机器学习模型的人来说,将是一个重大突破。
顺便说一下,一些公司已经在积极地使用机器人进行工作安置。 他们特别擅长进行大规模筛选,可接收1000多张简历。 机器人会分析问卷并评估相关性,但最终决定权仍由该人做出。 佐治亚理工学院的科学家发现了这种情况,人们很乐意相信机器人。 如果事先告知他们设计用于执行特定任务,则会发生这种情况。 这种机器人还会进行周末采访。 人们与机器之间的开诚布公的对话是关于解雇的原因以及他们在工作过程中遇到的困难。 因此,机器人会收集非常好的,最重要的是重要的反馈。 另外,人们害怕对机器人撒谎。 他们认为汽车有更多信息。 例如,选择店主的两个主要问题是:您是否有犯罪记录并且是否饮酒? 那些没有躲藏的人向机器人回答了这些问题。

无人机有什么问题


现代无人驾驶车辆是不完善的,并且具有若干缺点。 最明显的是机器视觉。 这个问题甚至不在技术领域;机器视觉的问题尚未从概念上解决。 相机和传感器可以高速处理某些信号,结果二进制图像会在计算机内存中形成,必须对其进行解释。 这是主要困难。 例如,如果有行人过马路,那么任何驾驶员都容易想到这一点。 不是因为他的视力比无人驾驶摄像机的视力好,而是因为驾驶员心中有一个动人的模型。 视觉模型尚不存在。 尚不清楚人如何处理视觉信息。 正在设计建模设备,以一定的置信度可以识别许多对象。

想象一下,您让一个对汽车一无所知的人带来了叉骨。 显然,他将无法执行此操作。 因为他不是汽车修理工,而且脑子里没有杠杆模型。 但是,如果您说这是一块弯曲的铁片,那么一个人会带上它。 每个人都知道一块铁是什么,并且知道“弯曲的形状”是什么样的。 即使经过解释,机器人也无法应对。 为此,您需要培训他,从不同角度和不同程度的访问中放下所有这些对象的概念。

在办公室时,无需将椅子从桌子上移开即可识别物品。 只要看看后面。 仅仅因为人们拥有完整的椅子模型,而我们在椅子的一部分中就重新创建了整个模型。 我们知道椅子是办公室内部的重要属性。 因此,从可以从该片段重新创建的大量对象中,我们选择一个。 没有通用程序可以做到这一点。 现在,没有任何人工智能能够包含世界和知识的模型,从而无法明确地解释所看到的图像。

假设有人在灌木丛后面的某个地方藏起来,准备跑上马路。 他的身体的一部分隐藏在茂密的树叶后面。 可见部分不足以使机器将其视为潜在危险。 此外,如果您看到一头大象躲在灌木丛后,则可能认为这是一个戴着大象面具的人,因为在我们地区未找到大象。 好吧,汽车当然不具备这些知识。

无论如何,解释的问题正在接近解决。 在大量样本的机器学习算法中,您可以放置​​100辆汽车,很明显,即使是其他品牌的101辆汽车,该程序也很可能会正确识别。 虽然这辆车不会专门放置在里面。 还值得注意的是,对于程序的培训,观察选择的多样性很重要。 例如,如果您仅以轿车学习该程序,然后一辆敞篷车将行驶,那么它可能不会识别它,因为样本中没有没有车顶的汽车。

第二个挑战是道德困境,其中机器必须做出道德选择。 假设无人车辆载有一名乘客。 一个人跳出来见面,避免撞车的唯一方法是驶入附近的一根柱子。 汽车必须决定要献身的人-车内的人,或冲进车轮的人。 对她来说,这绝对是一项艰巨的任务。 已经有第一次事故,甚至是受害者。 在亚利桑那州,Uber拥有的无人驾驶SUV撞死一名行人。 他们的错是他们发布了一种粗略的算法,未能通过赛道上的所有测试。

无人机的问题首先是缺乏关于世界的基本观念。 人们总是在上下文中做出决定。 没有人工智能能够完整地展现一个人在18岁时所拥有的世界。 因此,虽然在18岁时就已经形成了良好的视野,但驾照恰好是从18岁开始颁发的(在俄罗斯),在成年之前,一个人无法做出明智的决定,包括道德和情感上的决定。

我们正在处理需要改进的非常年轻且不成熟的算法。 他们能够正常工作,但完全在人为控制之下。

测谎人工智能


在人工智能市场上,全球领先的公司正在积极投资情感计算领域。 这项技术揭示了面部表情中最不可见的变化。 该程序选择脸上的一定数量的点,并将其与已经识别出情绪的照片数据库进行比较。

微软表示,他们有类似的算法,但不会将其提供给政府。 这是一种非常危险的工具,可以用来对付人类。 想象一下,您进入老板的办公室,而他看到您讨厌他并且对他不好。 存在严重的道德问题。

将会有更多类似的“识别器”程序。 美丽,精彩包括。 它们将很有用,特别是在医学上。 汽车已经在帮助医生诊断疾病。 假设美国IBM Watson计划使诊断诊断比某些新手医生更好。 作为培训样本,其中记录了六千个案例历史。 这是一项泰坦尼克号的工作,当然是很多钱。

机器知道如何撰写吗


机器无法产生质的新东西。 原始歌词,诗歌,音乐作品-所有这些都是基于置换(或更简单地说,置换)的原理。 至于诗歌,行动算法如下:程序找到共同的时刻和某些组合。 他使用关键字,将其他作者的单词添加到关键字中,然后将其扭曲为所需的节奏。 俄语很复杂,但是如果您不关心押韵,则可以“撰写”一部白色诗歌。

有了音乐,它仍然更加容易。 该程序确定哪些和弦是特定艺术家最有特色的,并以不同的顺序使用它们。 这种“创造力”的基础是规模的改组和明显的混音的拒绝。
有些程序包含民间故事。 为此,我们使用弗拉基米尔·普普(Vladimir Propp)的《故事的形态》一书对场景进行了分析。 事实证明,事件发展的模型包括几个明显的要素:童话总是具有积极和消极的特征。 最后还有捐助者,道路,障碍和幸福的结局。 这些故事的一个显着特征是折衷主义。 该程序结合了英雄及其行为,例如,讲述了与蛇Gorynych战斗的愚人伊凡。 绝对的劣势是故事的语言拙劣。 听众感到无聊。 一个活泼的讲故事的人总是会增加幽默感,并在某个有趣的语音速度中增添乐趣。 出于相同的原因,该程序无法将隐喻或词组转换为其他语言。 在线翻译需要处理大量信息。 值得注意的是,近年来它们的翻译质量已大大提高。 现在,他们不再像以前那样单独翻译每个单词,而是在文本中的某个位置查找整个句子。 最大的困难来自语义。 这需要一个知识库来理解表达式的含义。 例如:鸡准备晚餐。 如果您当时不知道该人在哪里–在养鸡场(准备晚餐的鸡)或餐馆(准备午餐的鸡),目前尚不清楚如何正确翻译该短语。

没有人类知识,就不可能进行智力活动。 知识不能被任何东西取代。 问题是如何将这些技能数字化。 如何将经验转化为有意义的方案,可以与机器共享。

Source: https://habr.com/ru/post/zh-CN473564/


All Articles