伦理方面,西方这样看待人工智能

极客时间官方
近日,剑桥大学未来智能研究中心研究员丹尼特·加尔(Danit Gal)在2019北京智源大会上发表演讲,她认为东西方在管理方式、文化、社会等方面的不同,导致东西方在人工智能伦理方面存在8大差异。以下为加尔的观点。

近日,剑桥大学未来智能研究中心研究员丹尼特·加尔(Danit Gal)在2019北京智源大会上发表演讲,她认为东西方在管理方式、文化、社会等方面的不同,导致东西方在人工智能伦理方面存在8大差异。以下为加尔的观点。

差异一:可及性

要确保我们的技术是可及的、可用的,且为全世界的程序开发者所使用。在中国,不同公司有不同的数据库,如果有公司想获得额外的数据时,它需要向政府申请,由政府来批准。在西方,虽然每个公司也有自己的数据库,但谷歌的数据库不会跟苹果分享,即便有些数据分享了,代码也是不会分享的。

加尔认为,中国的网络安全法更加重要,要优于西方的网络安全法。

差异二:责任性

要保证行动和行动所造成的后果是可追溯的,要知道中间的操作机构应该负起什么样的责任,以及谁应该负这样的责任。在中国,政府会把一些APP列入“黑名单”,把它彻底删除,这些APP如果想重新进入市场,就需要经过政府的批准。

差异三:可制性

使用技术的人要能够控制技术。以“人对于机器控制的层级架构”为例,这里的“人”是谁?可能是一个公司的技术开发负责人,他应该是能做最终决策的。但在韩国是有决策层级的,这个人可以在特殊场景中做决策,但他的上级还有上级,在往上还有上级,做最终决策的很可能是CEO。

因此,我们要了解,不同的社会有不同的架构,最终做决策的那个人也是不同的。

差异四:可解释性

要确保技术是可以解释的、可以被审核的、可以找到因果关系的。比如,AI做了一个决定,那谁应该负责任?是AI还是开发者?

在一些国家,有观点认为,AI做出的决策是自动的,应该修改AI,应该让AI负责任,开发这个AI的人不需要负责任。

在另一些国家中,AI的开发者和AI的使用者都会负一定的责任。AI的使用者必须要确保他们对AI有充分的了解才能使用,所以,他们需要承担一定的责任。AI的开发者也需要承担一定的责任。

有了可解释性,可以界定谁来负责任,到底是AI,还是人。

差异五:公平性

要确保我们的技术是公平的,不会造成一些偏见和不公平的情况。如果一个国家的总人口中有95%的人来自不同种族,而另外一个国家基本上人人都来自同一个种族,这两个国家的人口种族分布情况是不一样的。因此,在全世界范围内应用同样的AI系统时,我们必须要进行不同的讨论。对具有很大差异化的国家,在设计的时候,我们必须要有针对性的考虑。

差异六:以人为中心

我们要确保我们的设计是以人为中心的,技术的发展要有人的参与,如果没有人的参与,这个技术就毫无意义。日本有一个“社会共同发展6.0”,谈的是人的尊严以及技术发展具有同等的重要性。只有把人和技术放到一起的时候,才能为这个技术更好地赋能,更加有力。

差异七:技术或者个人信息的保护

一些个人数据可能在网上被滥用,中国也存在数据滥用的状况,为此,中国政府出台了很多法律法规和政策来保护人的信息安全。如果出现违法使用个人信息的情况,这些信息一定要被删除。

这一点和西方国家不太一样。在西方,谁来保护人们以及“谁是人们”这样的定义是不一样的。这不意味着西方的人没有隐私,而是我们的隐私定义不同。

差异八:透明性

我们要确保技术的使用是透明的、可追溯的。它对用户透明,还是对政府透明?还是对其他的公司透明?谁需要这么高水平的透明性?

在中国,透明的级别非常直截了当,要对政府透明,而不是对用户透明。那我们如何确保不同的机构之间都是透明的?如果能做到足够的透明,各个机构就能够知道自己的数据被如何使用。

以上是加尔对于东西方人工智能伦理差异的看法,你是否认同呢?

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论