人工智能怎样才能远离偏见与歧视?

快资讯
佚名
近年来,随着人工智能和自动化技术的不断发展,智能机器人迅速崛起,成为科技发展的新希望。随着智能机器人的大热,也暴漏出一个问题——性别歧视问题。众所周知,亚马逊的Alexa、苹果的Siri、谷歌的Googl...

近年来,随着人工智能和自动化技术的不断发展,智能机器人迅速崛起,成为科技发展的新希望。随着智能机器人的大热,也暴漏出一个问题——性别歧视问题。众所周知,亚马逊的Alexa、苹果的Siri、谷歌的Google Assistant和微软的Cortana全都默认使用的女声,人们在跟其对话中,智能机器人却给其传输传统的男尊女卑的思想,让女性应该卑顺、忍受无礼的行为。

“人是万物的尺度”,智能机器人作为人类社会最新的创造发明,不可避免地带上了人类的痕迹与烙印,包括某些负面痕迹与烙印。而与人类创造出来的传统工具有所不同的是,人工智能具有相当的智能,如果任由这些负面痕迹和烙印带来的负面设定以指数形式增长,其负面效应可能会超出传统和一般人的想象,这也是人工智能这把“双刃剑”的特质所在。

该文指出,随着“交流型AI”的用途迅速增加,它隐含的性别歧视会在我们、包括我们孩子的世界中迅速发酵。微妙的暗示通过不断重复,会产生累加的效果,随着时间的推移,形成一种病态的心理状况。如果没有改变,编写现有的性别歧视算法和脚本的这批人将会创造出下一代对话型AI,随着对话型AI在全球推广,把女性定位为厨娘和秘书,把男性定位为高管的工程师的AI系统,将会把他们的偏见成倍放大。

那么,如何才能阻止人工智能走上性别歧视的歧途呢?一是加大人工智能研究和开发领域中的女性参与者、决策者的比例,摒弃对于女性高科技工作者的刻板印象,释放女性在此行业的能力与潜力。二是加强对于人工智能设计开发中的性别歧视算法和脚本的警惕与监测,发现问题所在,及时予以修正改善。

有言道“孩子是父母的复印版本”,某种程度上,人工智能作为人类智慧的“孩子”,也是人类的复印版本。但人是具有反思能力的高级动物,理想中的人工智能应该是摆脱和超越了旧有偏见和歧视的。研发人员应该把它视为人类社会的“理想国”来塑造,而不是重复过去性别歧视的老套刻板印象。

况且,如同人工智能的技术进步处在日新月异之中一样,社会的文明进步也在日新月异之中,“她世纪”里有诸多性别平等的新图景和新突破,女性形象和性别分工已不再沿袭“你织布来我种田”等“旧船票”中的老故事,昨日的偏见与歧视已在历史的延长线上渐行渐远,所以,像这位高管一样对人工智能所创制出来的“糟糕的榜样”保持高度的敏感与警惕,当是应有的专业素质。而拒绝带有偏见和歧视的人工智能产品和相关设计、设定,也是公众对于这一象征着人类最新技术发展水准的高科技产业的期待与冀望——更高技术水准理应匹配更高道德水准,科技的进步不当缺乏文明信念的引导与光照。性别平等的状况是衡量社会文明发展的天然尺度,如果人工智能在技术上突飞猛进,而在性别意识等平等和公正观念上依然停留在过去,那不但是遗憾还有可能是灾难。

人工智能是人类创造的产物,某种程度上,人工智能所暴露出来的问题,也是人类世界所存在的问题的映射与集成。如有媒体评论指出的,人工智能已经开始出现了种族和性别偏见,但是这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念。

除了呼吁,更需要有监管机构,去监管、纠正机器的此种行为,人类更加需要做到的事情是:警惕、监管、摈弃人类社会本身所存在的偏见与傲慢,人工智能就像咿呀学语的幼儿,一如既往地反映被输入的东西,而输入东西的就是我们——我们的文化、我们的意识形态、我们自己。

引用一位专家的话来说:“很多人都认为这表明人工智能(AI)存在偏见。不,这表明我们有偏见,人工智能正在有样学样。”专家由此警告说,人工智能有可能强化现有偏见,因为算法与人类不同,可能无法有意识地抵制学到的偏见。

所以,这就需要作为人工智能“基础模板”的人类的社会结构与观念更有道德感,更受到平等、和谐理念与思想的匡正与规范。研究表明,除非采用明确的编程来解决这个问题,否则,算法将与现实社会一样,充斥着相同的社会偏见。当世界存在偏见,历史数据存在偏见时,向人类“学习致敬”的人工智能难以得出不带偏见的结果。所以,要想有光明的未来,必须正视当下的阴暗并祛除之,未来与现在密不可分,未来取决于现在。

(原标题:中国妇女报:人工智能如何远离歧视与偏见?)

THEEND