谷歌发布了7条AI伦理原则


几个月来,谷歌一直在与微软和亚马逊争夺五角大楼数百万美元的云服务和人工智能系统合同 (请参阅高层管理人员内部信件泄漏 )。 不幸的是,出于指导目的,我们自己的员工将棍棒插入了车轮。 在2018年3月,他们开始在谷歌收集反对军事技术发展的签名 ,谷歌以前曾以“不要作恶”为主要格言。

管理层不得不做出部分让步。 昨天,首席执行官Sundar Pichai 宣布了 Google承诺将继续遵守的一系列原则 。 其中包括禁止将人工智能领域的内部发展用于造成“共同伤害”的武器,非法监视和技术。 但是谷歌将继续在其他领域与军方合作。 因此,云事业部仍然保留了中标的机会。


美国军用无人机

Sundar Pichai在官方博客上写道,谷歌正在大力投资于AI的研发,使使用工具和开源技术的所有人都可以广泛使用这些技术。 “我们认识到,如此强大的技术对其使用提出了同样严重的问题。 首席执行官表示,人工智能的开发和使用方式将在未来很多年对社会产生重大影响。 “作为人工智能领域的领导者,我们深感责任重大。” 因此,今天我们宣布工作的七个原则。 这些不是理论概念; 这些是将积极管理我们的研究和产品开发并影响我们的业务决策的特定标准。”

因此,以下是Google的AI原则的七种缩写形式。

1.社会效益


人工智能的成就将在医疗,安全,能源,交通,制造和娱乐等广泛领域产生变革性影响。 考虑到AI技术的潜在发展和使用,该公司将考虑广泛的社会和经济因素,并在总的可能收益大大超过预计的风险和不利因素的情况下采取行动。

2.打击歧视


AI算法和数据集可以反映,加强或减少歧视。 Google认识到,仅与不公正的偏见区分开来并不总是那么容易,并且在不同的文化和社会中也有所不同。 该公司承诺“努力避免对人们造成不公平的后果,特别是那些与种族,民族,性别,国籍,收入,性取向,能力以及政治或宗教信仰等敏感特征有关的后果。”

3.安全性


Google的人工智能系统将得到“充分的保护”,并“根据人工智能安全研究领域的最佳实践进行设计”。

4.问责制


人工智能系统将提供适当的机会提供反馈,对其行为的相关解释以及可能的上诉。 人将保持对他们的控制。

5.隐私原则


Google承诺在开发和使用AI技术时使用其隐私原则,并确保适当的透明度和对数据使用的控制。

6.高标准的科学成就


技术创新源于科学的方法和对公开询问,严谨的知识,正直与合作的承诺。 人工智能工具有可能在生物学,化学,医学和环境科学等关键领域解锁新的研究和知识领域。 Google承诺努力追求高标准的科学卓越性,以负责任的方式分享AI知识,发布培训材料,最佳实践和研究,以使更多的人开发有用的AI应用程序。

7.仅向遵守这些原则的人提供AI技术。


许多技术都有双重用途,包括AI。 Google承诺将致力于限制潜在有害或令人反感的应用程序,并评估其可能的用途。

Sundar Pichai列举了一系列Google人工智能无法接受的技术。

  1. 造成或可能造成普遍伤害的技术。
  2. 武器或其他技术,其主要目的或实施是造成或直接减轻对人类的伤害。
  3. 收集或使用监视信息的技术违反了国际公认的标准。
  4. 目的与国际公认的国际法和人权原则背道而驰的技术。

在某些方面,这些原理类似于阿西莫夫机器人的定律。 希望其他AI系统公司也将正式宣布对这些原则的承诺并遵守这些原则。

Source: https://habr.com/ru/post/zh-CN413637/


All Articles