人工智能伦理风险治理刍议

近年来,由人工智能技术带来的大数据精准营销、隐私泄露、数字鸿沟、金融欺诈、裁员失业等问题,暴露出人工智能在社会上的诸多负面影响。

作为第四次科技革命和产业变革的重要推动力量,人工智能技术正以一种迅猛发展的态势,与经济社会深度融合,推动社会生产力水平的整体跃升。但是,人工智能在深刻改变现代生产生活模式的同时,也不可避免地冲击了现有的社会秩序结构,引发了一系列尖锐的伦理和法律问题,进而带来公共治理领域的系统性转变和结构性挑战。人工智能引发的伦理和法律问题可统称为伦理风险。对此种伦理风险,需要加以正确认识,并进行及时、有针对性的治理布局。

风险特点

相比于其他技术,人工智能最大的特点是“自主性”,即具有自主参与相关应用场景决策和行动的能力。从技术原理上看,此自主性依靠大量关联性数据的集成处理(如深度学习等)实现。这意味着,人工智能在根本上建基于关联性原则(Association Rules)之上,其决策和行为并非完全遵循传统技术所依赖的因果关系,反而是新型的关联关系。但问题是,关联性原则并不具备因果律原则那样的可解释性、精确性和可预见性,而这三种特性又直接决定着技术本身的可适用性、可控性和安全性。因此,人工智能作为一种以自主性为核心的技术,先天具有更高的风险指数。同时,人工智能本质上是一个综合性、交叉性的技术合成平台,具有技术孕育的多学科参与和产业应用的多样化等特征。其复杂性表现在从研发到应用的各个环节之中,从而导致其风险出现的可能性较传统技术大为凸显。人工智能技术自诞生之日起,就存在着较高出现多重风险的可能性。

近年来,由人工智能技术带来的大数据精准营销、隐私泄露、数字鸿沟、金融欺诈、裁员失业等问题,暴露出人工智能在社会上的诸多负面影响。以大数据在商业上的应用为例,一些技术公司大量抓取消费者的诸如网络浏览、购物和出行等数据,并通过关联性分析,预测其个人偏好、消费规律和购物频率等内容,进而进行精准的产品推送。大数据精准营销成为中国商业发展的强劲动力,在经济领域备受追捧。但其负面问题也有很多,且较为棘手。比如,这种某些特定技术公司所操控的营销行为,是否侵犯了消费者的知情权和隐私权?是否符合行业公平竞争原则和理念?如何避免虚假信息借此泛滥、个人隐私泄露等问题?有关部门如何对相关企业或平台进行安全监管,乃至必要时给出适合的责任认定与司法裁断?等等。概言之,大数据营销在其应用中具有评估指标多元、行政和法律监管困难、权责认定复杂等问题,正在或将会引发诸多伦理风险。当然,这些问题也是当前人工智能应用场景中共性的风险表现,其未知性、紧迫性、全局性、复杂性和长期性等特征显著,以常规治理模式很难消化解决。这要求我们必须明确回答:如何通过风险治理消解人工智能的负面影响?笔者认为,需要从各个层面构建中国特色的伦理风险治理新格局。

治理路径

社会学家贝克(Ulrich Beck)在其风险社会理论中,提出了一个影响巨大的概念——“自反性”(reflexivity),即认为技术社会的最终发展形态并不单纯由技术本身的力量决定,也将由在对技术进行反思的过程中所形成的反作用力塑造。基于“自反性”,我们对技术的反思和对相关风险的治理,不应仅停留于对抗技术“副作用”的层面,而更应具有前瞻性和构建性,以期形成合理的“自反性”力量,反过来引领技术发展和社会进步。在人工智能风险治理中,需要由基础的认知反省到具体的应用调节,最终走向社会制度的整体改进。这是一个有机的风险治理过程,是技术社会走向良性发展的重要路径。根据这一路径,可以进行三个层次的伦理风险治理布局。

一是更新认知,凝聚人工智能时代社会共识和集体信念。健康积极的社会观念会直接影响人工智能技术的研发与应用进程。当前,人工智能技术引发的各类伦理风险,往往在短期内难以被充分解读并有效引领。并且,一些关于人工智能以及利用人工智能传播或放大的不良社会观念,也可能存在滋生的土壤。这时,需要通过一些公共管理手段,对社会思想观念进行集中有效的调控引导。一方面,要开展面向社会大众的针对性思想宣传工作。我们可以面向社会各类人群主动设置议题,围绕人工智能应用的热点领域(如媒体、电商、自动驾驶、医疗、金融等),结合社会关注的热点话题(如安全、隐私、效率、教育、就业、家庭关系等),有针对性地加以正面宣传教育和引导,积极解疑释惑,努力形成良好的社会心理预期,疏导社会不良情绪,建立关于人工智能的积极集体信念。另一方面,要进行人工智能伦理思想的专业性、学术性研究创新。我们应鼓励相关学术研究群体在充分理解现实问题、预判未来趋势的基础上,遵循科技发展规律,重新阐释人机主体性、公平正义、权利尊严、美好生活等重大理论问题,为整个社会建构、更新和丰富人工智能时代伦理体系和司法体系的基础理论和价值目标,设计适用于不同群体和应用场景的伦理规范和评判指标,提供人工智能风险治理的深层理论资源。

二是应用调节,建立人工智能政策调节和缓冲机制。人工智能技术的发展日新月异,其风险产生也常常不可预计。为做好充分的风险管控,首先要保证公共治理层面的有效干预。合理有效的干预并非在人工智能的研发和应用上进行简单统管统筹,而是要针对其未知性和复杂性等特点,拓展出开放灵活的政策空间,即通过建立有效约束和容错纠错的管理机制,打造人工智能应用的缓冲区。对人工智能新技术、新应用的容错不是盲目的,而是基于容错甚至纠错的组织管理能力。为实现这一目标,应建立政府、公众、媒体、企业、第三方评估机构等多元互动的生态行政管理系统。比如,政府可以主导建立面向科研共同体和公众、媒体的人工智能伦理问题听证、征询和协商机制,提高科研共同体和公众在人工智能研发和应用领域的监督能力和参与程度,发掘科研共同体、公众和媒体在推动企业和政府的治理理念转变上的重要作用。在建立动态组织管理机制的基础上,有关管理机构需把握好人工智能发展的节奏和方向,有选择有计划地调研调控,避免公共决策中的短视和失误;以可持续发展的视角,整体及时地推进经济结构、社会管理结构的平稳转型,预防人工智能对市场、就业和产业结构等领域的过度冲击;削弱人工智能对居民生活的负面影响和可能隐患,保护弱势群体;以公共管理政策的灵活性开放性,形成科技、市场和管理的三角联动,保障人工智能的健康发展。

三是制度改进,明确权责构建多级制度保障。在社会层面,应建立健全统一有力的专门性机构,对人工智能发展进行总体规划和全局统筹。可以由人工智能伦理委员会进行全局性统筹,逐级建立委员会体系,保证对政府部门、企事业单位、科研机构和公众舆论的综合全面监管。在企业层面,应充分发挥企业在人工智能伦理风险管理上的基点作用。企业领导层应树立风险意识,提高责任意识,在企业结构上设立专门性的伦理风险应对和监督部门,完善企业在有关伦理问题上的决策、沟通、咨询和调控的制度框架,提高企业在人工智能伦理风险的识别、评估、处理、监控及汇报能力。此外,在行业内部,应建立统一的伦理风险咨询和监管委员会,制定行业发展伦理规范,推动相关企业落实主体责任,保证企业良性发展。在法律层面,应重视人工智能相关立法司法工作创新,以人民利益为中心,以公平正义为基石,以现实问题为导向,积极反思人工智能时代法律制度和理论体系的思想基础和价值目标。促进能够自我调整革新的人工智能新型法律规则体系建设,切实维护人民安全、隐私等基本权利,保障法律在人工智能应用中发挥应有的警示、裁断和保护功能。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论