人工智能机器人的生死决策

2018-06-29 08:23:43 文/信息化观察网 作者/编译 原创

如果我们的生死都是由机器人决定,你会有什么样的感觉?虽然机器可以收集所有的数据,人们必须对机器进行编程,才能使其处理并使用数据,这意味着我们人类要应对这一场景,从而指导机器对我们生死相关的问题进行决策。从自动驾驶汽车,到无人机决定攻击目标,再到机器人医生,当前许多人都在考虑人工智能机器人所要做出的生死决定,我们也正处于这一地步。

起初,我们想到机器需要做出的决定看起来并没有什么问题,但是麻省理工Media Lab的研究人员让我们见识到了道德机器,即一个最广泛的全球道德研究,自动驾驶汽车一旦上路行驶,我们就需要思考一些道德问题:自动驾驶汽车是否应该违反交通法来避免撞到行人?如果这一行为让汽车乘客危在旦夕呢?谁的生命更重要?但是如果行人非法穿越马路,答案是不是会有所不同?这些问题还是很有挑战性的,尤其是在不同的文化中,对于这些道德问题的答案也几乎没有达成一致。

自动驾驶汽车决策

麦肯锡咨询公司的一项研究表明,自动驾驶汽车预计会减少90%的交通事故,即便如此,交通事故还是会发生,并且我们需要考虑如何对机器进行编程。此外,我们需要决定谁应该负责对设备编程,是消费者、政客、市场、保险公司、还是其他人。如果自动驾驶汽车在路上行驶时遇到了一个障碍,它能够以多种方式进行回应,可以一直停在那,或者冒险改变行驶线路,然后撞上一辆车,最终导致乘客死亡。改变行驶路线的决定是不是依靠坐在汽车里的乘客的影响力决定的?车里死亡的有可能是父母,亦或是名声赫赫的科学家。但是如果汽车里还有小孩呢?或许如何避开障碍的决定是通过选项中翻扑克或者硬币的方式随机决定的。这些都是我们需要处理的窘境,因为这些自动驾驶系统是我们自己建立并设计的。决策算法中的另一个方法需要考虑交通事故是否会导致断肢、心智能力丧失、或者其它残疾状况。

军事无人机决定目标

美国军方发表声明称他们正在开发无人机,通过使用人工智能技术,能够对车辆和人进行定位和瞄准,机器决定射杀对象的场景不再在科幻小说中才能看到,而是很快就会成为现实。当前,无人机还是由人类控制的,并由人类决定巡航方向,而且最终像在何处投放炸弹,或者发射火箭等决策也都是由人类决定的。国际人道主义法允许对民用和军用的“两用设备”进行攻击。当无人机参与到战斗中时,技术公司和员工会不会是两个同级目标?自动系统的一个关键特征是它们能够通过数据和接收到的表现反馈提高它们的表现能力。当自动无人机技术经过改良之后,我们会不会需要决定一个可以接受的自助开发阶段,从而防止制造出杀戮机器?

机器人医生又意味着什么?

描写医疗领域的重大突破、人工智能系统能够用于疾病诊断、提供定制医疗计划或者生产药物协议等内容的文章铺天盖地。人工智能技术帮助解决难题的潜力巨大,但是当人类医生和机器人医生不再在一条战线上时,又会发生什么?你会不会特别信任某一方?如果你不按照人工智能系统给你的建议,保险公司会不会拒绝对你进行赔偿?什么时候才应该把重大医疗决策交付给人工智能算法?谁又会得到最终的决定权?医生?病人?还是药物?由于机器愈加擅长于做出医疗决策,我们或许会遇到这样一个问题:程序员或者医生不可能知道机器的决策过程。我们所抛弃的医疗知识越多,对人工智能控制越强,我们就越难找出人工智能决策中存在的问题。

无论你是在谈论交通安全、军事行动或者医疗卫生系统,这些都是很难回答的问题。和人一样,人工智能机器有巨大的创造力,同时也有巨大的破坏力。如果没有道德罗盘的话,那么人类就需要仔细考虑如何将人性和道德编程到机器的算法中。

原文作者:Bernard Marr

免责声明:凡注明为其它来源的信息均转自其它平台,由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。联系邮箱:leixiao@infoobs.