伊隆·马斯克(Elon Musk)资助人工智能研究小组是安全的
电影《终结者:创世纪》的宣传海报上周,总部位于美国波士顿的民间非营利组织未来生命研究所(FLI)宣布获得一轮1000万美元的重大资助。这笔700万美元的捐款主要来自埃隆·马斯克(Elon Musk),其余的钱则是由另一个非营利组织“开放慈善事业”转移的。。FLI的主要职业是寻找在人工智能及其融资领域工作的专业研究小组。科学家从FLI获得资助的目标之一是开发一种对人类安全的“计算机思维”,这不会导致未来的全球灾难。来自SpaceX和开放慈善项目组负责人的数百万美元将分配给在知名大学工作并证明自己的37个研究组。BusinessInsider 列表其中一些科学项目。例如,来自伯克利大学和奥克福德大学的一个科学家联合小组致力于创建经过人类喜好训练的算法,这将在将来帮助人工智能表现得像人一样。杜克大学的员工(美国北卡罗来纳州)设定了一个更加雄心勃勃的目标:他们希望开发一种人工智能系统,该系统可以根据“人类道德”做出决策。在丹佛大学,他们实际上正在研究对抗天网的方法,以应对可能失去的机械武器控制权。去年11月底,埃隆·马斯克(Elon Musk)指出在互联网上有关人工智能安全的公开讨论中。从SpaceX负责人的话来看,他对计算机的思考能力保持警惕,并预测“ 5-10年之内非常危险的事物”的出现,这意味着AI是一种危险。由于某些未知原因,Mask的评论在发布后几分钟就消失了,但是其他Edge.org用户设法将其保存为屏幕截图。面具发言人承诺将来会就此问题发表老板的官方意见,但显然这还没有发生。应当指出的是,实际上麝香坚持以英国著名科学家霍金,谁的意见,谈到早前如下:“在人工智能发展中的所有这些成就,在未来几十年等待我们的背景下逐渐消失。人工智能的成功创造将是人类历史上最大的事件。不幸的是,如果我们不学会规避风险,那将是最后一次。”霍金(Hawking)认为,很少有专门研究AI安全的严肃科学著作,而能够做到这一点的科学组织也很少。有趣的是,霍金在这些组织中提到了FLI。斯蒂芬·霍金和埃隆·马斯克之间是否存在任何联系是可靠的未知数。但是,科学家们有另一种观点,没有霍金教授这样的大名。他们认为,使人工智能失控的问题,对于科幻电影而言,比对严重问题的关注更大。在这里阅读他们的反驳。Source: https://habr.com/ru/post/zh-CN381497/
All Articles