剑桥大学的科学家为实现《文明五号》创建了一个mod,并实现了开发强大AI的方案



现在只有懒惰的人不会谈论人工智能 ,也不会写作。 但是在我们这个时代,人工智能不是电影《终结者》中的天网。 到目前为止,科学家正在处理一种弱形式的人工智能。 在大多数情况下,这些是旨在解决某些问题的相对复杂的神经网络。

我们这个时代的许多杰出人士都担心出现强形式的AI的可能性。 一些专家认为,“有思想的计算机”可以成为一个人的坚决反对者,即他的敌人。 否则未来的AI将对人类无动于衷地实现其某些目标。 在这种情况下,人工智能将在需要时摧毁整个城市或国家。 为了显示类似的技术发展情景,来自剑桥的科学家开发了游戏“文明”第五部分的mod

在此附录中,您可以看到在没有预先确定的安全措施的情况下,如果使用强大的AI形式会发生什么。 科学家并没有突然开发出这个mod。 剑桥大学存在风险研究(CSER)的专家正试图了解在我们的现代世界中,有什么在不久或将来会成为人类无法克服的危险。

该小组成立于2012年,其最初的目标是今天的工作-研究各种类型的全球灾难对人类的影响。 仅考虑那些有可能导致人类毁灭的问题,即目前形式的文明,或一般而言,地球上所有人的文明。 当然,这些灾难不仅是由人工智能的影响引起的,其原因可能是危险疾病,气候变化等的转基因致病因素。

至于游戏,据开发商称,《文明》的加入部分是教育,一部分是研究项目。 “我们的主要目的是展示开发实际计算机智能的可能方案,以证明这种智能可能给我们的人们带来危险,”该项目的参与者之一Shahar Eivin说。


游戏还展示了IBM的Deep Blue计算机,该计算机可帮助玩家加速AI研究。

顺便说一句,这种补充取代了文明胜利的场景之一,即通过发展强大的人工智能形式向半人马座星号发射了宇宙飞船。 在时尚方面,有新的建筑物(研究实验室),新的奇迹(相同的深蓝色)和新的机制,称为AI危险。

玩家一旦开始学习AI 程序,就会出现一个计时器,称为“ AI危险”。 如果计时器到达倒计时结束,则玩家会收到一条消息,即世界上某处已经创建了强大的人工智能形式,并且游戏因击败了游戏者而结束。 “所有这些都像现实生活。 开发人员说,您可以在文明的发展中走很长的路,但是如果您在没有适当注意的情况下管理所创造的技术,就会失去一切。

为了避免出现最终失败的不利发展情况,玩家有机会在AI领域进行更多科学研究。 这样的项目执行得越多,滴答计时器就越慢。 为了赢得胜利,玩家需要开发AI控制技术,并投资于邻国和大城市当局的项目。 “如果选择AI方案,则需要更多的安全性开发。 Avin说:“在这方面进行投资并不总是显而易见的必要,但必须做到这一点。”



当然,“文明”不能被称为严肃的研究工具,但是增加它使得有可能意识到不仅对于普通玩家,而且对于科学家来说,都需要采取谨慎的态度来发展AI。 风险显示得非常清楚。 而且这种情况非常现实-玩家需要与积极进取的邻居打交道,这些州或多或少进行相同的研究。 如果当事方中的一个成功了,但没有采取应有的谨慎,失败是不可避免的。

实际上,为了应对全球性危险,需要全球互动。 一切都正确显示在这里。

Source: https://habr.com/ru/post/zh-CN409335/


All Articles