人工智能偏心?AI很单纯,复杂的是人

卓源科技
亚马逊分析表示,这是因为他们使用了过去10年的历史数据来对这个AI模型进行训练,但是这些历史数据本身就包含了对女性的偏见。此后,亚马逊便不再使用这一算法进行招聘。

“AI很单纯,复杂的是人”——在探讨人工智能的公正性时,香港科技大学教授兼微众银行首席AI官杨强,巧妙地使用了一句流行歌词来形容。在他看来,AI技术发展中出现的诸多有关公平类的问题,实际上是映射了人类社会已经存在的歧视和偏见。

360截图16251112669372.png

近日,在未来论坛发起的“AI向善的理论与实践”论坛上,众多行业专家围绕“AI公平”这一主题展开了深入的讨论。

AI和谁学会了“偏心”?

就像人类社会一样,在AI世界中,偏见和不公正随处可见。

在2014年,亚马逊公司启动了一项利用AI技术进行自动招聘的项目。这个项目用AI算法来对应聘者简历提供的信息进行评级。可是,第二年,亚马逊就意识到这个机器脑瓜并非像想象中那么公平——它似乎在歧视女性!如果一份简历中出现了“women”这样的字眼,那在评分上就打了折扣。

亚马逊分析表示,这是因为他们使用了过去10年的历史数据来对这个AI模型进行训练,但是这些历史数据本身就包含了对女性的偏见。此后,亚马逊便不再使用这一算法进行招聘。

中科视拓(北京)联合创始人山世光表示,AI的公平性问题,根本不在于技术本身,而在于人的内心,也就是说,AI公平性的根源在于社会的公平性。

360截图16251112669372.png

他解释道,AI技术从算法、系统的设计到走向社会应用实践,这一过程涉及到方方面面的人,在许多环节中,都可能有意无意地引入歧视和偏见。就拿大家最熟悉的健康码来说,这款产品在为防疫作出巨大贡献的同时,也因为给老年人出行带来不便等情况,引发了不少争议。这就是由于目标人群设置不够周全,而带来了潜在的歧视风险。

除了不同人群使用AI遇到的公平问题外,AI公平还涉及开发者与使用者之间的不平等,通常是企业和用户之间的不平等。

清华大学法学院院长申卫星补充了一个在生活中非常常见的案例。大量APP在使用时都会出现“知情同意”的选项,这种知情同意书往往有几千字,多则上万字,大量的信息让消费者无法长时间阅读,只好选择同意,否则只能退出。

“过去我们对知情同意格式条款的主要要求是‘告知要充分’。但现在更常见的问题反而是‘告知过量’,或者叫信息超载。”申卫星表示,“过分冗余格式条款,实际上正是剥夺了消费者的自我决定权。这是一种非常隐蔽的不公平。”

如何正确打开AI这把双刃剑?

AI技术与社会公平的关系,比想象中更加复杂。

搜狗CEO王小川指出,总的来说,AI技术的高度发展有利于公平的提升。第一,在技术支撑下,教育、医疗等重大领域在资源供给的数量和质量方面将有很大的提高,供给端的繁荣有助于缓解社会资源分配不均;第二,随着大数据的连接,人们有机会在全局层面上提炼主要矛盾,探讨公平问题,进而达成社会共识。

360截图16251112669372.png

但是它也是一把双刃剑。王小川表示,互联网、信息化和AI的发展为公平性提供了更好的抓手,但也将带来更多新的挑战。其中一个较为敏感的问题是,在机器的判断越来越精确之后,公平定义的矛盾会更加突出。例如在金融贷款、商业保险等领域,如果对用户进行个人画像并作出判断后,拒绝为该用户提供服务,这是否公平?另外,随着AI技术进步所带来的资源极大繁荣,很容易产生“马太效应”,导致资源向金字塔顶端集中,拉大社会差距。在人类历史上,这个问题不断出现,值得警惕。

对于这一点,山世光强调:“作为AI从业人员、开发者、运营者,我们必须意识到:我们所开发的AI既可能被用来促进社会公平和消除歧视,同时也可能被滥用,甚至助纣为虐。

因此,人类该如何挥动这把双刃剑,使其向善而不作恶?山世光说:“问题的最终解决不仅取决于技术的进步,还有赖于技术专家和社会学家这两个群体的顺畅沟通,深入对话。”

为更加公平的AI而奋斗

论坛上,专家们介绍了产业界、学术界、法律界等在AI公平性上做出的种种努力。

华为公司AI治理首席专家段小琴说:“人们已经开发了许多工具,包括分析数据集形态和质量的工具,能让开发者、工程师清楚地看到他们用于训练的数据特征的分布,例如性别、年龄等,至少要满足统计学意义上的合理分布,从而减少潜在的偏差;还有分析算法模型的工具,可以对模型的公平性进行评估,并作出相应的修正和优化;还有帮助开发者对决定模型输出的关键数据特征进行探索的工具;以及公平性约束条件下的算法训练工具等。

360截图16251112669372.png

“AI公平性的一个重要方向就是数据的可获得性和可使用性。”在这次论坛上,杨强强调了“联邦学习”在抵制数据“马太效应”、促进AI公平性方面的作用,“我们研究联邦学习,一个更大的目标是实现‘数据可用不可见’,它的特点是:隐私保护、权益保障、缺陷保障以及确权,而确权和权益保证需要通过经济学来完成。”

申卫星则指出,在这一问题上,企业和技术自律,要与以法律为代表的‘他律’结合起来,未来相关领域的立法应该是三驾马车——技术、法律、伦理——并行不悖,技术是根本,法律是保障,伦理是社会基础。

他进一步补充道,就AI技术立法问题而言,法律应解决形式上的公平、机会上的公平、程序上的公平,以及形式公平与实质公平的统一。个人建议,当时机成熟时,应该引入综合立法。这一过程既要考虑到个人数据的保护,也要考虑到保护与创新之间如何平衡。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论