人工智能亟需一根法律之绳

法制日报
佚名
如果要制定一部概括性的人工智能法,那么,这部法律至少应该明确立法的目的、指导原则以及鼓励和限制的范围和内容,在精神上至少应该反映出人类对自己创造物的掌握能力和对科学技术规律的充分尊重。 随着人工智能以...

如果要制定一部概括性的人工智能法,那么,这部法律至少应该明确立法的目的、指导原则以及鼓励和限制的范围和内容,在精神上至少应该反映出人类对自己创造物的掌握能力和对科学技术规律的充分尊重。

随着人工智能以各种各样的形式走入我们的生活世界,人们开始担忧它可能带来的麻烦。机器人违反了法律,或者伤害了人身、造成了财产损失,谁来承担责任?如何控制机器人产品的质量?自然人损坏了机器人,应该如何赔偿?无人驾驶的交通工具出了事故该如何问责?如何对待不良商家借“人工智能热”牟取暴利?如何应对“人工智能热”引起的业界乱象和泡沫?如何规制人工智能的科学探索,从而避免使其走向反人类的方向?诸如此类的问题使得要不要制定专门的人工智能法成为一个重要的话题。

有些人认为,现有的法律已经足以应对人工智能引起的和可能引起的新的法律关系,或者调控由人工智能引发的法律后果,并不需要新的专门的法律调控。持这种观点的人主要把人工智能看作是一种产品,并且认为现有的产品责任法就足以应对人工智能引起的法律问题。具体而言,如果一个机器人侵犯了别人的利益,或者导致了别人的经济损失,机器人的制造者、所有者或者编程者应该承担法律责任。然而,机器人并不是单纯的一般意义上的产品。现有产品责任法中关于产品的概念,并没有预设针对智能活动产品的内容。

无论如何,如果要规管人工智能的研发,就必须要赋予人工智能一定的法律地位。虽然有些国家的法律已经试图赋予机器人一定的法律主体资格,比如韩国的机器人法案提倡机器人应具有相应权利义务的电子人格,爱沙尼亚的人工智能立法把机器人看做人的代理,介于独立人格和财产之间,但很多研究者都不愿意把人工智能看作是具有主体性的存在,而仅仅把它看作是一种工具或者产品,不具有主体资格。

制定法律等于建立一种社会制度。制度建立的资源和途径大致有三:一是把行之有效持之以恒的实践制度化。比如市场的出现,开始并没有固定的市场的概念。但人们习惯于在一定的时间和一定的地点交易,久而久之就产生了市场和调节市场的规范系统和制度。二是把精确可行的概念和理论制度化。人类社会有些制度的诞生和发展建基于伟大思想家的理论和学说,这方面的例子不胜枚举。三是向别人借鉴学习,比如法律移植。有史以来人们对法律、习俗、道德等规范系统的相互借鉴从未停止过。

从这三方面来看,制定人工智能法的时机可能尚未成熟。就实践而言,人工智能研究和运用突飞猛进的历史并不长。实践中尚未积累起足够的经验,也未发展出可以类型化的比较成熟的牵涉人工智能的法律关系。因此,无法进行制度化。也就是说,目前不可能制定出有关人工智能的完善的法律。从理论与学说的角度来看,无论描述性的还是预测性的,目前的理论界尚未就什么是人工智能的问题达成一致认识,而且也缺乏主要的概念范畴。因此,把理论或者学说制度化的前景也并不十分乐观。从借鉴移植的角度来看,截至目前,世界上也还没有一部被命名为“人工智能法”的法律问世。但是,调整人工智能某些方面或某种形式的法律却早已存在。比如,有关网络平台管理、机器人以及网上交易等方面的法律,诸如欧洲议会“关于制定机器人民事法律规则的决议”、韩国的“智能机器人法”、美国众参两院的“自动驾驶法案”等。

毫无疑问,制定单项或专门的法规调控人工智能的某一具体方面或形式是既有实践,但这并不排除制定一部具有综合性、概括性的“人工智能法”的可能性。从中国制定法律的规律来看,当人们不能完全掌握所需信息的情况下,可以先制定一部原则性的简短的法律,随着实践的深入再制定详细的实施细则,比如中外合资企业法及其实施细则。此法制定之初,人们并不清楚改革开放会走到哪一步,因此只规定了很宽泛的指导原则,而后逐渐制定了相应的实施细则和更具体的专项法规。

这里牵涉到的指导思想是,人们可否在信息不全的情况下作出明智的决定?决策科学研究的成果表明,决策所依赖的是主要信息,而不是全面信息。只要主要信息具备就可作出正确的决定。人工智能的立法亦如是。国家已经出台有关政策和发展规划,主要的信息已经具备。政策虽然有时和法律并不一致,甚至发生冲突,但两者也有相一致的地方。政策中合理的部分,具有普遍和长久的效用的内容可以作为法律的组成部分,尤其是指导原则。因此,人工智能的立法可以奉政策为指导原则。

如果要制定一部概括性的人工智能法,那么,这部法律至少应该明确立法的目的、指导原则以及鼓励和限制的范围和内容,在精神上至少应该反映出人类对自己创造物的掌握能力和对科学技术规律的充分尊重。这部法律同时应该设立一个监管人工智能研发的专门机构,并赋予其相应的权力,诸如质量认证的权力,进一步制定实施细则和计划的权力,起诉违法的权力以及行政处罚的权力,并且针对这些权力大致规定实施的程序和大体要求。此外,这个机构一定要吸收有关专家作为成员。美国纽约市议会新近通过的“算法问责法案”里就有专项规定,要求成立一个由自动化决策系统专家和相应公民组织代表组成的工作组,专门监督自动决策算法的公平和透明。这一点,在未来人工智能立法过程中应该借鉴。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论