自上世纪末以来,人工智能(AI)一直在突破性技术的顶端稳步领先。 甚至在实际开发开始之前,科幻小说家就成功地利用了机器思维这一主题。 通常,有两个主题是主要主题-这是一个乌托邦式的繁荣的人类社会,其中所有生命维持问题都分配给了智能机器人,而未来的前景却一片阴沉,机器控制着一个人的权力。 今天,这些故事构成了开发人工智能的道德问题的基础。 但是首先是第一件事。

为了创建数字智能,开发人员确定了两个主要领域。 在一种情况下,它是用复杂的神经元和神经末梢网络模仿人的大脑,而在另一种情况下,则尝试开发一种复制人类智力活动的算法系统。 在AI开发的曙光中,由于计算机技术的适度能力和较弱的理论基础,第一种实现方法相当困难。 因此,优先考虑算法的开发。 但是,并非所有问题都可以这种方式解决。 在某些情况下,唯一的出路可能是神经网络,它成为了机器学习的基础。 当前计算机技术和纳米技术的发展速度在人工神经网络的发展中发挥了积极作用。
创建人工智能的每种方法都有其优点和缺点。 在开发算法系统时,有必要对每个问题的解决方案进行正式描述。 也就是说,为了扩大要解决的问题的范围,开发人员需要向程序中添加新算法。 然而,这样的设备很好地解决了逻辑问题,并且在上世纪90年代末,该设备已经在国际象棋比赛中击败了世界冠军。

在创建算法系统时,从实现的意义上讲,人工神经网络不需要编程。 神经网络的主要优点是它们具有自学习能力。 基于对问题的大量正确解决方案,在输入和输出数据之间建立了关系。 神经网络成功解决的第一个任务是对图片中的对象进行识别和分类,其效果不比人差。
可以合理地假设,两种创建AI的方法相结合可以产生惊人的结果。 的确,这些结果之一就是在围棋中胜过一个人的混合解决方案。 它显示了神经网络和算法的最佳功能。 AI首先评估板上的位置好坏,然后算法仅将神经网络预测的选项计算为好。 无需计算所有可能的选项。 如果将其与人类行为进行比较,则玩家可以通过选择最佳动作直观地确定当前情况。 但是,不幸的是,这种混合方法并不总是可行的。
人工智能的实际应用已经出现在已经准备好的土壤上。 计算机数据处理已经形成了结构化和标准化信息的环境。 在各个领域中使用脚本减少了工作结果对员工资格和个人素质的依赖。 人们的生活方式适应了数字技术。 因此,人工智能的使用领域将不断扩大,部分取代人工。
在驾驶车辆中使用AI可使您将关于没有驾驶员的汽车的科幻小说的思想付诸实践。 重型车辆驾驶员版本的成功试验已经通过。 也许在不久的将来,我们可以期待出租车机器人的出现,取代传统的出租车司机。
如今,计算机对大量信息的高速处理以及自学式人工智能可以节省数千小时的工作,将对客户请求的响应时间减少到零。 据专家称,到2020年,与客户的互动中约有85%将在无需人工干预的情况下进行。 但是,AI的使用不限于外部通信。 专注于创新的公司计划将人工智能技术纳入其招聘和保留策略。 这可以是根据指定的参数选择和筛选简历,跟踪潜在问题和生产力下降的原因,分析员工行为等等。
这是两位专家的意见。 微软意大利公司咨询和服务部门负责人说:“人工智能将成为一种新的商业工具,不久以后,公司将不再想象没有它的方法。”
在2019年,人工智能的功能将在公司内部的现代设备上提供,这将减少由于使用云而造成的延迟。 反过来,这将极大地影响分布式网络的性质,并使AI技术像如今的智能手机和电子邮件一样普遍存在。”
佳能欧洲战略发展总监Patrick Bischoff完全同意:
“未来是智能外围设备和云解决方案。 换句话说,随时都有智能解决方案。”
作为当今出现的实现AI的方法之一,我们可以考虑物联网。 智能传感器和连接的设备已成功用于日常生活和非生产中。 同时,正在开发混合云系统,该系统将从数据中心和公共云的组合转换为计算单元。 现在,这两个趋势已达到一个水平,可以认为2019年是智能云和智能外围设备时代的开始。
显然,人工智能的实际应用具有无限的前景。 这是许多过程的完全自动化,可确保手术操作的安全性和珠宝准确性,从而挽救生命并预测需求,从而最大程度地满足需求。 所有这些都与科幻小说中有关创建一个繁荣社会的情节有共同点,在繁荣社会中,几乎所有工作都委托给机器人。 然后我们将面对人工智能自我意识的伦理问题。 是否有可能将他视为一个理性的存在,与人平等并在权利上平等? 但这只是硬币的一面。 实际上,您将不得不面对许多不同类型的问题。
将AI引入人类活动将导致传统工作的减少。 不仅呼叫中心的员工和司机可能失业,律师,医生和老师也可能失业。 现在,我们甚至无法完全理解AI如何替代一个人。 也就是说,释放劳动力将是一个明确的问题。 为了解决这个问题,有必要使社会适应高科技产业。 但是困难将在于寻找人可以与人工智能竞争的领域。

在开发AI的过程中,您将不得不面对成长中的机器“思维”的许多“童年”疾病。 输入信息的不平衡会在输出上造成偏差。 我们已经遇到的这种现象的表现形式之一就是“白人问题”。 该名称之所以称呼是因为白人在AI结果中占主导地位。 因此,例如,广告算法主要向男性访客分配了高薪职位空缺。 选择名称的算法通常将选择权留给“白色”名称。 在选美比赛中,AI向白人选手颁发了奖品。
另一个AI问题在社交网络(尤其是Facebook)上被发现。 根据用户的偏好,仅以一种方式向他提供内容。 这隐藏了另类观点。 在当前阶段,这种现象可归因于算法和机器学习的不完善。 但是在将来,如果AI做出决定性的决定,例如在法庭上发布判决,这是不可接受的。
像任何强大的AI技术一样,它可能有双重目的。 因此,必须保护它免受第三方的数据操纵和算法失真。 也就是说,人工智能应该涵盖所有的网络安全措施,可能会更大程度地覆盖。 如何在实践中实现这一点仍是一个悬而未决的问题。
但是,人工智能还有另一个问题,它比其他所有问题都更加复杂和深入。 尽管有数学模型,理论和实验基础,但即使是这些算法的开发人员也无法解释其产品的工作原理。 人工智能是一个“黑匣子”,理论上应该产生预期的结果。 但是实践可能与理论不同。 如果不知道黑匣子中正在发生的过程,就无法对其进行控制。

机器与人不同,它学会解决问题,但不了解其作用。 这可能会导致以下事实:问题将得到解决,但根本无法达到预期的目的,尽管从形式上讲这将是一个解决方案。 例如,我们可以列举一些为传递游戏而创建的“非标准” AI解决方案:
- 玩家在第一关结束时自杀,以免在第二关失败。
- 为了不输,玩家不断地暂停游戏;
- 当模拟人工生活时,生存需要能量,而孩子的出生并没有消耗能量,人工智能创造了一种久坐的生活方式,主要从事交配,目的是繁殖后代,然后可以食用或用作后代多吃些后代。
在游戏中,这样的决定看起来很有趣,但是在生活中却充满了全球悲剧。 对于AI而言,抗击癌症的解决方案很可能是摧毁所有罹患该病的患者。 因此,机器破坏人类的场景似乎不是乌托邦式的。
只能想象到未来人与机器的共生方式。 您必须了解AI技术将继续发展。 他们开辟了太多诱人的前景。 进展无法停止。 但是,未来的责任仍然在人身上-我们将创造一个世界繁荣的世界,还是被我们自己的创造所摧毁。
您怎么看:在人类生活中大规模引入人工智能会导致什么? 在评论中写下可以等待我们的最未来,最乐观或最科学的场景。
