Google 的 AI 伦理探索之路、欧盟出台 AI 伦理指南以及三个核心议题

差不多一年前,Google 经历了一次影响广泛内部「博弈」。

Google 员工发现公司(准确地说是 Google Cloud)正在参与美国军方的无人机项目 Maven,该项目是美国五角大楼与包括 Google 在内的多家公司共同参与,旨在利用机器学习来分析美军无人机拍摄的画面,从而提升无人机打击的精准度。

这意味着,Google 的 AI 正在被应用到军事领域。这也引发了 Google 内部员工的巨大反响,数千名员工签署联名信,呼吁公司停止这个项目。

这个「博弈」一直延续到 6 月,时任 Google Cloud CEO 的 Diane Greene 在 2018 年 6 月 3 日宣布,Google 在该项目合作到期后,不再继续参与其中

紧接着,Google CEO 皮查伊透过官方博客进一步介绍了 Google 对于未来人工智能的使用原则和底线,根据科技媒体爱范儿的翻译,主要包括以下几项:

  • 对社会有益。
  • 避免制造或者加深不公平的偏见。
  • 在开发中进行测试以确保安全。
  • 对人类负责。
  • 隐私原则。
  • 坚守对卓越科学的追求。
  • 在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

四个底线包括:

  • 对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。
  • 不会将 AI 用于制造武器及其它将会对人类产生伤害的产品。
  • 不会将 AI 用于收集或使用用户信息,以进行违反国际公认规范的监视。
  • 不会将 AI 用于违反国际法和人权的技术开发。

但正如我在当时一篇会员通讯里所言:

Google 既没有设置相应的监督机制,也没有提出必要的防御措施,整个表态也就失去了其意义,此次 Maven 项目的争议中,Google 内部上千名工程师的签名信以及辞职威胁的作用到底有多大,以及在其他公司又有多少可复制性,都是一个巨大的问号。

这个问号一直延续到了 2019 年 3 月。

2019 年 3 月 26 号,Google 通过官方博客正式宣布成立一个「先进技术外部咨询委员会(Advanced Technology External Advisory Council,以下简称为 ATEAC)」。

按照 Google 官方的说法,这个委员会将评估 Google 多项 AI 技术的潜在影响,比如脸部识别里的肤色偏见以及机器学习应用过程里的其他偏见等。该委员成员也涉及 AI 学术界、经济、政策、伦理等领域,首批成员共有八人,详细资料在这里

img

从 AI 伦理的角度去看,Google 希望将内部 AI 伦理原则与外部 AI 咨询委员会结合在一起,至少在 PR 层面重塑 Google 的形象。

但事情的走向从一开始就发生了变化。

Google 员工发现这个提供「技术伦理道德」咨询的委员会,其组成成员却在某些议题上非常「不道德」,比如委员会里的 Dyan Gibbens,其身份是无人机公司 Trumbull 的 CEO,该公司与军方关系密切;再比如Heritage 基金会负责人 Kay Coles James,在 LGBT 议题上持非常保守的态度,她不止一次地反对 LGBT。

这也再次引发 Google 员工的抗议,其背后的动因不仅是这两位成员的「伦理」,还涉及了 Google 到底是如何选择的这些成员,如果说成立外部咨询委员会让 AI 技术伦理实践更具透明度,那么这个委员会成员筛选的透明度又如何保障?

最终,在上周五,Google 宣布解散这个委员会,官方声明以「更新」的方式添加到了委员会成立的新闻上面:

It’s become clear that in the current environment, ATEAC can’t function as we wanted. So we’re ending the council and going back to the drawing board. We’ll continue to be responsible in our work on the important issues that AI raises, and will find different ways of getting outside opinions on these topics.

兜兜转转,又回到了原地。

但 AI 伦理监管的探索还在继续。

本周一,欧盟委员会再一次强调了科技公司必须建立 AI 伦理原则,以防止 AI 技术被滥用。

根据 The Verge 的报道,欧盟委员会在这份 AI 伦理只能里,提出了以下几个「要求」:

  • 人类影响与监督:人工智能不能超越人类的自主性。人类不能被AI系统操纵或者胁迫,人类要能够干预或监督软件做出的决定。

  • 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击的影响,应该是相当可靠的。

  • 隐私和数据管理:人工智能系统收集的个人数据应是安全的、私有的。它不应该被任何人接触,也不能被盗。

  • 透明性:创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

  • 多样性、非歧视和公平性:人工智能服务应该面向所有人,无论年龄、性别、种族或其他特征。AI不应该存在偏见。

  • 环境和社会福祉:人工智能应该是可持续的并可以「导致积极的社会变革」。

  • 问责机制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

路透社的消息称,欧盟目前有一个来自 50 多家机构(公司、高校)的咨询委员会,上述几项原则也正是出自这个机构。当然这些「要求」还不具有法律约束力,不过鉴于欧盟对于数据隐私、互联网的强势管理方式,未来不排除正式出台 AI 伦理监管的法律。

透过 Google 外部委员会的闹剧与欧盟的举措,《华尔街日报》也提供一份 AI 伦理监管需要关注的问题。

其一,千万不要忽视 PR 层面的争议。如果要成立 AI 伦理监管委员会,一定要提高一整套、清晰的成员筛选标准;

其二,AI 伦理监管的权力问题。公司外部 AI 伦理监管太过于表面,如果要符合欧盟对于 AI 伦理的要求,那么公司一定要拥有内部的 AI 伦理机制,既有向公司董事会汇报的权力,也应该了解、并参与 AI 项目;

其三,制定更详细的 AI 伦理道德准则。包括数据使用、隐私保护以及透明度、算法可解释等方面的具体原则,以此来约束和规范公司的 AI 项目。

AI 伦理监管的探索还将继续,欧盟委员会数据代表 Andrus Ansip 的这句话颇为应景:

The ethical dimension of AI is not a luxury feature or an add-on. It is only with trust that our society can fully benefit from technologies……

赵赛坡

View posts by 赵赛坡
赵赛坡,科技博客作者、资深科技观察家、付费科技评论 Dailyio 创始人、出品人,覆盖 3000+ 付费用户。 曾担任 TechTarget 中国区记者、频道主编、AI 自媒体「机器之心」前联合创始人。