在实验室中开发复杂的人工智能系统是一项艰巨的任务。 但是,当这样的系统进入现实世界并开始与真实的人互动时,会发生什么? 这是研究人员试图弄清楚的事情,其中包括蒙特利尔微软研究院高级研究总监费尔南多·迪亚兹博士。 今天,Diaz博士将分享他的想法,并回答我们有关人工智能及其对社会的影响的问题。

Fernando与同事一起试图了解AI系统如何影响社会,进入现实世界以及如何应对后果。
他还将讨论技术如何塑造音乐品味,并解释为什么今天对教育计算机科学的学生如此重要,不仅包括算法,还包括道德原则。
面试
开始实验时,我会问自己:哪些用户实验被认为是道德的,哪些不是道德的? 需要告知人们他们已经成为实验参与者的范围有多大? 如何识别和消除机器学习技术使用的偏见数据? 首先想到的是。 在接下来的几年中,还会出现许多其他问题,例如,如何以表现出对用户的尊重的方式开发AI系统。
您正在收听Microsoft Research Podcast。 在这里,我们向您介绍先进的技术研究及其背后的科学家。 我是Gretchen Huizinga的主持人。
在实验室中开发复杂的人工智能系统是一项艰巨的任务。 但是,当这样的系统进入现实世界并开始与真实的人互动时,会发生什么? 像Microsoft Research Montreal的高级研究主管Fernando Diaz博士这样的研究人员正在试图弄清楚这一点。 Fernando与同事一起试图了解AI系统如何影响社会,进入现实世界以及如何应对后果。
今天,Diaz博士将分享他的想法,并回答我们有关人工智能及其对社会的影响的问题。 他还将讨论技术如何塑造音乐品味,并解释为什么今天对教育计算机科学的学生如此重要,不仅包括算法,还包括道德原则。 有关此内容以及更多内容-在新版的Microsoft Research播客中。
费尔南多·迪亚兹(Fernando Diaz),欢迎收看播客。谢谢啦
您是Microsoft蒙特利尔研究中心的高级研究总监,致力于人工智能,信息搜索和检索领域。 但是,您还将学习公平,问责,透明和道德的原则(公平,问责,透明度和道德,FATE)。 也就是说,总的来说(我们稍后会详细介绍):是什么让您早上醒来? 您正在寻找哪些严重问题的答案,您想解决哪些重要问题?我们正在创建的许多系统都非常成功。 信息搜索,网络搜索,计算机视觉-所有这些技术已经开发了很多年。 今天,它们正在积极地占领大众市场,人们每天都在使用它们。 但是,一些IT专家在设计这些技术时并未认真考虑:将在哪种社交环境中使用它们。
在这种情况下,我只是想了解创建这些系统的社会先决条件,它们所处的社会环境如何不仅影响我们的指标(例如,返回数据的准确性和完整性),而且还影响整个社会。 在我看来,这个问题已成为IT专业人员的关注焦点,因为其中许多是孤立开发的技术才刚刚开始进入市场。
因此,您是IT专家,您已经研究了用于获取信息,机器学习和统计方法的算法。 但是,最近您对人工智能技术与社会的互动感兴趣,特别是其广泛传播或有人发表的后果。 您为什么现在对此感兴趣? 什么事困扰着你? 是什么激发了您对该领域的兴趣?好问题。 首先,我当然进入了裁判法院,获得了学位。 我研究了所有这些系统,可以这么说,从一个抽象的角度讲,对离线获得的静态数据进行了试验。 毕业后不久,我来到了工业研究实验室。 在这里,我与生产工人一起工作,我们参与了我在大学学习的技术的实际实施。

然后我开始理解:当我们扩展这些算法并将其提供给实际用户时,实验室中提出的大多数基本假设实际上是完全不适用的。 对我来说,这是对我所有研究的最终检查,是对基本原理的回归,是对理解问题所在,如何准确评估结果并实现特定指标的一种尝试。
也就是说,您已经在Microsoft Research工作,然后离开那里,然后再次返回。 您从纽约开始,现在移居蒙特利尔。 你怎么回来了大学毕业后,我开始在蒙特利尔进行研究工作,由于种种原因,我被迫离开那里。 但是,住在那儿,我意识到在这个城市(与整个加拿大一样),IT和机器学习领域的研究传统非常牢固。 内心深处,我真的一直想回到这里参加这项工作。 当我有机会回到位于蒙特利尔的Microsoft研究实验室时,我很高兴地利用了它。 尤其是当您认为实验室完全从事人工智能的开发时。 在蒙特利尔,在这一领域进行了非常积极的研究,我想成为所有这一切的一部分,以做出自己的贡献。
让我们谈谈蒙特利尔。 这个城市已成为与人工智能相关的一切事物的真正圣地,蒙特利尔SMR实验室的任务非常具体-教机器以与人们相同的方式进行阅读,思考和交流。 告诉我们您走这条路的距离,以及您自己的研究与蒙特利尔实验室的工作之间的关系。我认为创建了一个专门研究AI的专门实验室,因为有关此类系统的开发存在许多问题,但他们仍未找到答案。 我认为这不仅需要自然语言处理方面的专家,还需要互动学习或激励学习的专家。 实际上,它们都应该紧密合作。 在我看来,这就是使我们的实验室真正独一无二的原因。
我今天的任务是到实验室,如果可能的话,与专家交流,并告诉他们在真实的人开始与他们互动时这些系统的行为。 就像我之前说的那样,孤立地开发这样的系统相当容易。 但是,当他们开始实际实施时,结果表明在实验过程中做出了太多假设。 现在,我正在组建一个团队,其任务是预测此类问题的出现,优化系统的开发,从与之互动的人群之间的差异,或从中汲取信息的知识库中的变化等方面提高其稳定性。
您想组成哪个团队?我正试图为几年前在纽约组织的FATE组创建一个“姐妹”。 我们将关注于将人工智能融入社会的社会后果。 我们的团队将不仅包括IT领域的专家,而且还将包括社会科学等相关学科的专家。 为了使IT专业人员更好地了解对社会的影响,我们需要专业的社会学家,人类学家等。 他们将能够为我们尚未评估或考虑的事情提供很多有用的信息。
是的,让我们详细讨论一下。 如今,FATE原理在人工智能和机器学习领域的各种研究中的应用至关重要。 正如您所说,原因是并非所有有争议的问题都可以在实验室中适当研究。 连同计划的结果,可能会产生完全出乎意料的,令人震惊的后果。 因此,该社区的研究人员具有不同的专业和教育背景。 当涉及到诚实,问责,透明和道德原则时,每位专家的贡献是什么?是的,社会学家通常对技术应用的各个方面都了解得更好,他们了解可能的正面和负面后果,人们对我们提供的这些工具或其他工具的反应。 受过法律教育的专家将能够评论正在开发的各种技术的政治背景,并且可以帮助我们更好地理解“诚实”的概念。
反过来,IT专业人员可以更好地了解正在开发的系统的本质,能够将“诚实”之类的概念转化为可行的概念,并将其整合到系统中。 但是,对于同一问题,非常有必要存在非常不同的观点,以便更有效地设计系统。
让我们回到过去所做的事情和现在继续做的事情:访问信息系统,搜索引擎并获取信息。 在您撰写的文档中,您谈到了对此类系统的研究与实际实施之间存在一定的差距,但是与此同时,您也提出了一个挑衅性的声明,即教育机构比行业技术专家能够更好地解决某些问题。 这些问题是什么?您为什么这么认为?让我们看一下信息获取研究领域的情况。 有来自教育机构的科学家为社会造福做了很多事,但是如今,在网络搜索领域,许多研究都是由拥有数据,用户信息等的大型搜索巨头进行的。 而且,在大多数情况下,科学家无法获得进行实验的平台这类数据。 因此,研究机会显然是不平等的。
在我的文章中,我写道,教育机构的科研人员虽然没有大量数据,但是他们有能力吸引各种各样的专家,而搜索巨头却无法做到。 该大学拥有社会学家和其他科学专家。 有经济学科的老师。 所有这些潜在的研究“合作伙伴”都将有助于更广泛地研究该问题,从各种角度进行研究,而不是碰到搜索巨头所坚持的唯一问题。
我认为建立数据集只是策略之一。 教育机构无法使用的另一种方法或科学平台类型是实验。 我可以做A / B测试。 您可以设置涉及大量用户的受控实验,而该实验在数据集中不可用。
是的,这是真的。但是,在我看来,值得探索的是,我们实际上如何为教育机构提供访问资源以进行此类受控实验的途径。
有趣所有这些混乱无序地发生,在我看来,这正是我们行业研究人员需要考虑的问题:如何使获得这些机会更加容易和便捷。
因此,让我们回到数据上。 让我们谈谈他们。 机器学习专家一致认为,仅“大数据”是不够的–我特别用引号表示“大数据”。 除其他外,还需要高质量和客观的数据。 我们知道,所有这些大数据集都缺乏一定程度的客观性。
我们需要修复它。 如今,关于如何通过例如搜索引擎的审计,确保相等性的算法等来提高数据的客观性的话题很多。 怎么做?我们关注数据偏差的原因之一:在部署过程中,将基于此数据训练的模型会产生偏差。 也就是说,最重要的是能够确定人工智能如何客观地工作。 而且,如果他的行为有偏见,则需要回过头来重新训练算法或对其进行限制,以免您对数据产生偏见。 我今天的工作主要集中在评估和衡量上。

我们希望了解访问系统的用户,了解他们的需求,并客观地或有偏见地评估系统的运行,并考虑到这些用户是谁,他们属于哪个人群。 这需要专家在获取信息方面获得丰富的经验,这些专家从20世纪50年代的此类研究开始就设法考虑了所有估计和测量算法。 这使您可以在审核,评估和获取信息之间找到自然的平衡。
就像我们已经说过的那样,偏见在数据处理,分析和人工智能领域的研究人员中有点流行。 但是,您说除了偏见之外,还需要解决其他社会性质的问题。 这些问题是什么?研究如何帮助解决这些问题?是的,我真的认为偏见是一个非常重要的问题,但是为什么我甚至谈论使用人工智能的社会环境呢? 因为我相信偏见只是我们可以识别的社会问题之一。 当然,还有其他。 显然,其中之一与透明度有关。 如何使算法做出的决策对用户透明,让他们感到可以控制情况,参与算法的工作?
第二个问题是算法的文化背景。 这一切都发生在选择电影或音乐推荐的背景下。 例如,我正在创建一个大型系统,用于为用户选择音乐推荐。 例如,如果我知道,通过将个人表演者加入推荐内容,就可以以某种方式形成某人的音乐品味,那么将这种算法用于文化的后果将是什么? 从长远来看,建立或维护一种文化意味着什么?
这个问题的另一个方面:选择音乐推荐的算法可能会对作者或表演者本身产生重大影响。 作为一名IT专业人员,我可以说这是选择音乐推荐的最佳算法。 我将把它推向市场。 但是,我们的IT专业人员根本没有考虑过该算法将如何影响作者。 对我个人而言,这尤其重要。
那么您将如何进行研究,将所有这些考虑在内?让我们回到选择音乐建议的示例。 想象一下,您与音乐家保持着密切联系,并且完全理解了这对他们有多重要。 他们将被排除在系统之外又将是什么呢? 感觉他们的生活受到推荐系统的控制,他们绝对不能影响推荐吗? 作为IT专家,我只需要与社会学家和人类学家,大众媒体专家坐在一起的桌子上,以便更好地了解像音乐家这样庞大的人口群体。
然后,我作为IT专业人员,可以坐下来考虑如何创建一种可以满足听众和音乐家需求的算法。 现在在我看来,这样的表述听起来太简单了。 这就是为什么我希望其他学科的专家告诉我:“费尔南多,你知道,你没有考虑这个,那个和那个。”
鉴于您的研究性质和结果,您能告诉我们我们需要担心的吗? 有什么事情会妨碍您安然入睡吗?就我个人而言,我对以下事实感到担忧:我们研究界开发的许多技术都在世界范围内问世,并在数天或数周内被大量使用。 这是由自己没有进行任何实验的人完成的。 “开放科学”没有错,但是我认为我们应该学习更多并且更好地理解在某个地方实现算法之前应用算法的后果。 让我感到困扰的是,我们很快发布了越来越多的新算法,而没有完全理解和理解它们的后果。
微软研究实验室以与教育机构的紧密合作而闻名。 而且我知道您非常重视教育。 让我们根据FATE原则(诚实,负责,透明和道德)谈论教育会发生什么。 告诉我们您如何看待这一领域的教育计划。您知道,当我已经进入治安管理部门……甚至更早的时候,当我在IT部门学习时,我们几乎没有受到道德原则的教导,也没有谈论我们正在开发的技术对社会的影响。 , , , . , . , .
-, , , , , . , , . , - , . - , , . , , , .
— — . , , , , .
: « , : , — ? , ? , ?». . , , .
, , « ». , , , , . , , . , , . , .是的 , , , , , . , , -. . , , .
, : ? : , , , , . , ?, , … , , . , , . , , , , .
, , . , , , , , — . .
, , , (FATE) IT, .
- .

12 AI-Community «
». .
-, , , « » .
, !
报名