人工智能时代下公平解决问题

极速聊科技
目前,技术人员通过面部检测和面部分析技术来缩小此类问题,面部检测识别和匹配数据库中人脸的行为,进一步分析面部特征,例如鼻子的形状和情绪分析。但是面部分析同样引起公民权利和权益方面的关注,某种算法可以确定一个人是生气或是害怕,同样也有可能会错误分析结果,导致的后果更具灾难性。

目前人工智能是许多日常应用的必要组成部分,包括电子设备、搜索平台和社交平台等等。在多数情况下,人工智能为消费者提供的服务均起到积极作用,例如机器自动检测信用卡欺诈,风控,亦或是在帮助医疗保险风险评估。但是在少数情况下,例如信用额度或抵押贷款,依然存在决策偏见。

面部分析和面部检测

AI助理警务是最早引起争议一个领域,尤其是面部识别技术。其中主要存在两个争论点:技术的准确性,技术滥用的可能性。第一个问题是面部识别算法在训练时就可能输入带有偏见的数据,这也就意味着算法运行的结果可能会因为种族、人口、地域等等方面而产生偏见。第二个问题则是很多人所直接担心的问题,即便准确度很高,但并未按照预先设定的用途使用,而任何的误用都有可能对部分人造成伤害。

目前,技术人员通过面部检测和面部分析技术来缩小此类问题,面部检测识别和匹配数据库中人脸的行为,进一步分析面部特征,例如鼻子的形状和情绪分析。但是面部分析同样引起公民权利和权益方面的关注,某种算法可以确定一个人是生气或是害怕,同样也有可能会错误分析结果,导致的后果更具灾难性。

法律的不确定性

在考虑算法偏差时,其中一个重要的问题是AI产品是否对被保护的群体造成不成比例的偏见,换个说法同个群体受到不同对待。但在起诉时很容易就会联想到两个问题,第一,在庞大的数据面前,很难发现有不同的对待。第二,即使发现,也很难证明,通常需要大量人员汇总数据,海量数据造成取证的难度。

但算法偏差问题还未经法庭诉讼,因为前一步的应用就已经存在法律问题,或者说存在灰色定义的部分。例如在二次大战后,美国在1964年修订的《民权法》中:私人雇主可以通过证明其做法的“业务必要性”来对不同的影响索赔提出异议。但就目前自动化软件的背景下,什么构成“业务必要性”?算法偏见下,原告如何识别、证明算法对同一群体中不同人产生不同的影响?这是立法机构所需要制定的标准。

确定目标

由此可见,算法偏差本身是一个多层次的问题,自然需要多层次的解决方案,包括问责机制、行业协会监管、民权诉讼立法等等。2019年,美国参议员Ron Wyde、Cory Booker和众议员Yvette Clark提出《算法责任法案》,该法案要求公司进行算法风险评估,由他们选择是否公布评估结果。

对于一个多层次的解决方案,首先要解决的一个最基本的问题:我们要解决的目标是什么?例如对于某些人来说,在刑事司法中使用AI,最大的挑战是不准确的可能性,对不准确的容忍度为0。而在某些情况下,结果与算法准确无关,例如在国家安全方面活刑事司法,当百分百准确,就是奥威尔式的无情,而当运行欠佳,就是卡夫卡式的噩梦。

可以说,这已经超出科技讨论的范畴了。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论