谷歌倒退,欧盟大步向前——AI的发展来到了新的十字路口

黄琨
面对AI伦理问题,谷歌寸步难行,欧盟大步前进,这种鲜明对比似乎预示着,AI技术的发展已经到了一个新的节点,即技术的影响已经渗透到社会的每一个角落,私人公司通过技术获利的欲望和公共利益的冲突开始显现,单独某个公司很难再以一己之力摸索出行业前进的方向。

自AI诞生那天起,人类就开始担心一个问题:作为人类顶尖智慧和技术的结晶,AI会不会有一天超出人类控制,甚至反噬人类?

阿西莫夫的“机器人三定律”曾经暂时解决了这个问题,但随着相关技术的发展和应用的扩大,人们发现,机器智能所面临伦理冲突的复杂性,远不是简单的3条定律就能约束的。近几年各大科技巨头相继在AI加大注码,让外界对这个问题的担忧日趋加重。

在这个问题上,实际上存在一个悖论:当你决定针对AI建立一整套伦理体系时,就已经默认了,人类社会现有的伦理体系已经不适用于AI时代,但是反过来,建立新的伦理体系,依照的却仍然是旧的东西。一句话言之,针对未知的东西,你如何确保你的解决方案是对的?

前一阵子,谷歌就因为这事招致内外双方面的口诛笔伐。

谷歌向后

作为应对公共舆论的手段,不少AI科技公司专门成立了所谓的“道德委员会”,用来调节“AI和人的关系”,谷歌也不例外。3月底,该公司聘请了一个由第三方独立人士组成的AI伦理委员会,取名“先进技术外部咨询委员会(ATEAC)”。

从事后来看,谷歌成立ATEAC,与其说是为了真正解决AI发展所面临的伦理问题,倒不如说是装成努力解决问题的样子,以堵住外界的批评声音。然而事与愿违,这个组织本身导致了一场纷乱。

周一,谷歌员工集体请愿,要求公司撤掉ATEAC中的一员——凯伊·科尔斯·詹姆斯(Kay Coles James)。到周一晚间,在请愿书上签字的员工已经超过500人。詹姆斯之所以招人恨,是因为他是一名右翼分子,是着名保守派智库传统基金会(Heritage Foundation)的总裁。右翼在西方国家本身就是“政治不正确”的同义词,更何况他还是最政治不正确——反同反变性人——的那批。

外界还有声音,要求谷歌从委员会中撤掉无人机技术公司Trumbull Unmanned的CEO吉本斯(Dyan Gibbens),理由同样是政治不正确,因为她和Trumbull Unmanned另一位创始人都曾经和美军就无人机进行合作。而在美国科技行业,和军事扯上关系是非常敏感的事。

从根本上说,伦理学研究的是我们做的决定对别人的影响,以及我们因此该承担什么责任。所以,所谓伦理委员会本质上是要为弱者利益发声。而在AI研究领域,由于现在仍处于并将长期处于“实验”阶段,很多事情可能会在无意中越过客观数据处理和道德决策间的界限,导致更复杂的伦理问题,更加敏感。

《金融时报》评论称,谷歌为其委员会所做的选择表明,它不理解这一点,要不然就是有意忽略了问题的复杂性。

终于,在上周四下午,谷歌公开宣布解散ATEAC:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行。所以我们要解散这个委员会,回到计划上来。”

或许有人想问,ATEAC解散了,AI技术的伦理问题怎么解决?

前面提到,ATEAC的存在本身是为了装装样子,这是因为在谷歌内部,其实有另一个几乎与ATEAC名字相同的团队,即“高级技术审查委员会(ATRC)”,据称这个团队才有真正的权利调动资源研究解决AI伦理困境的方法。

据彭博报道,相较于独立人士组成的ATEAC,ATRC的成员都是公司实权人士。团队领导人是谷歌首席法律官沃克(Kent Walker),其他成员包括谷歌基础设施主管霍尔泽 (Urs Holzle) 、AI主管迪恩(Jeff Dean)、Google.org副总裁富勒(Jacquelline Fuller)、教育和大学项目副总裁约翰逊(Maggie Johnson)以及谷歌母公司Alphabet旗下领先AI研究公司DeepMind联合创始人苏雷曼(Mustafa Suleyman)。

然而,像ATEAC这种“客观独立第三方”组织都不受信赖,更何况是ATRC这种内部利益人士组成的不透明小团体呢?

外媒指出,希望ATEAC的取消不会造成谷歌在AI伦理工作上的倒退,而是转为更具建设性地与外部利益相关者接触。

有意思的是,在谷歌宣布解散ATEAC 4天后,欧盟公布了一份官方的AI道德准则。

欧盟前进

新的准则和“机器人三定律”有很大不同,它没有提供一套直接针对AI的道德框架,而是梳理了AI在医疗、教育和消费技术等领域一些之前厘不清的问题。

举例来说,如果某个AI系统在未来某个时候诊断出你有癌症,在欧盟的指导方针下,AI软件不会因为你的种族或性别产生偏见,同时,它不会凌驾于医生的意见之上,患者可以要求AI解释治疗方案,也可以自主选择治疗方案。

总的来说,相比起“机器人三准则”的一刀切,欧盟准则更加温和,对多种细分场景提出针对性原则,更加适应当前的技术发展,但也更加复杂。为了实现这一目标,欧盟召集了52名专家组成小组,他们提出了未来AI系统应该满足的7项要求。具体如下:

1、人的能动性和人工监督。AI不应该践踏人类的自主性,AI不允许操纵或胁迫人类,人类应该能够干预或监督软件做出的每一个决定;

2、技术的稳健性和安全性。AI应当是安全并且准确的,它不能轻易被外部攻击(如对抗性的例子)影响,应具有相当的可靠性;

3、隐私和数据管理。AI系统必须保证收集到的个人数据的安全和私密性,在未经允许的情况下,不向任何第三方透露数据,也不应该轻易被盗;

4、透明度。创建AI系统的数据和算法应是可访问的,AI输出的决定也理应能“被人类理解和追踪”,换句话说,操作员应能够解释其AI系统所做的决定;

5、普惠、公平和非歧视。AI提供的服务应面向所有人,无论年龄、性别、种族或其他特征,反过来说,AI也不应该产生基于这些特征的偏见;

6、环境和社会福祉。AI作出的决策应该是可持续的,即对生态环境负责,还要有助于“积极的社会变革”;

7、问责制度。应设立机制,确保有人能控制AI系统,并对AI决策的后果负责。

其中一些准则非常抽象,很难量化评估,比如“积极的社会变革”的定义就因人而异、因国而异,但大部分准则都是直截了当、操作性强的。这意味着,许多准则可以通过政府监督进行检验。举个例子,共享行政AI系统的训练数据,可能有助于对抗算法偏见。

虽然这些准则并没有法律约束力,但作为欧盟广泛讨论的结果,它们可能就是未来所有AI相关立法的基础。欧盟一再表示,它希望成为AI伦理领域的领导者。早前的超级严格的《通用数据保护条例》已经表明了他们在信息技术安全使用方面的决心。

这不是应为欧洲人多有良心,只是大势决定,在投资和前沿技术研究方面,它已经失去了和美国及中国竞争的能力。所以,想要在AI时代保持存在感,它只能选择技术以外的方面——比如伦理——作为未来方向。

除了7条准则外,欧盟在同日还发布了一份“值得信赖的AI评估列表”,罗列出了AI软件中所有潜在弱点或危险的问题,包括“您是否验证了系统在意外情况的行为”和“您是否评估了数据集中的数据类型和范围”等细节问题。这些评估清单只是初步的,但欧盟将在未来几年收集各公司的反馈,并在2020年提交一份关于其公共事业的最终报告。

新的节点?

面对AI伦理问题,谷歌寸步难行,欧盟大步前进,这种鲜明对比似乎预示着,AI技术的发展已经到了一个新的节点,即技术的影响已经渗透到社会的每一个角落,私人公司通过技术获利的欲望和公共利益的冲突开始显现,单独某个公司很难再以一己之力摸索出行业前进的方向。

至少对于谷歌而言是如此。有业内人士怀疑,在谷歌声明的伦理原则与其财务利益相抵触的情况下,由高管组成的内部AI伦理委员会不太可能对谷歌起到认真的制衡作用。

这一点在《金融时报》的采访中也有所体现,某公司高管向记者表示,他对欧盟的监管准则表示欢迎,因为在竞争日益激烈的AI领域,这是唯一让他知道公司该在哪里“收手”的标准。除此以外,它不会承认任何形式的限制。

数字版权组织Access Now的政策经理希德韦吉(Fanny Hidvegi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。同时我们认为,欧盟不应仅仅满足于制定伦理准则。”

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论