现实版《少数派报告》?让人工智能预测犯罪,没想象中那么完美

Winnie Lee
近日,就有人工智能领域的知名专家说,预测性的监管工具不仅“毫无用处”,而且容易大大夸大暴力犯罪的可能性。

在斯皮尔伯格的经典科幻电影《少数派报告》中,未来的人们已经发明了能侦察人的脑电波的人工智能――“先知”。“先知”能侦察出人的犯罪企图,所以在罪犯犯罪之前,就已经被犯罪预防组织的警察逮捕并获刑。

看起来,这个系统让世界变得很完美:所有犯罪在发生之前就被制止,没有人会受到伤害。

但电影中,身为精英探员的主角,却突然被控“即将”谋杀一名他根本不认识的男子。这自然也就引发了我们思考一个问题:把裁决人们是否“有罪”的巨大权力交给人工智能,是否合适?这样的人工智能又能否保证百分百准确?

“预测犯罪”并不遥远

实际上,电影中的未来离我们并不遥远。

据报道,2002年,美国德拉瓦州威明顿市警方也做过“预言犯罪”的类似尝试,只不过他们没有用人工智能,而是人力。

他们派出便衣去大街上那些毒品交易频繁的地方,偷拍下经常在此出没的人的一举一动。然后警方搜集这些人物的资料,建立特别的警方资料库。尽管这些人中许多都还没有犯罪,但警方认为,他们犯罪的几率要比其它普通市民大得多。

2002年9月,英国加迪夫大学的科学家们也提出一种预言犯罪的构思——开发一种摄像机,它可以自动锁定人群中某个长时间站着不动的人,因为在熙熙攘攘的人流中,这么长时间站着多少有些“不寻常”。这种“鬼鬼祟祟”的行为,往往和预谋犯罪——比如抢劫、暗杀之类相关。

真正让AI出面则是在9·11事件后。在五角大楼的授意下,美国国防部高级研究计划局成立了一个由41名计算机专家、政策专家和政府官员组成的顾问小组。这些人曾数次讨论,是否有可能在保护个人隐私的前提下,对美国民众进行全方位电子监视,并用先进的数据搜索技术来预防潜在的恐怖袭击。

然后,一个名为“全面信息感知系统”(TIA)的构想诞生了。简单来说,所有美国人只要有数字技术的接触,都将会自动地处于这个系统的监视之下,如电子邮件、在线购物、旅行订票、ATM自动取款系统、移动电话、电子收费系统和信用卡支付终端等。

尽管其中所涉及的部分技术已经使用多年,但这个工程依然十分浩大。这一项目的初期投资为1000万美元,但有专家估计,3年后它的总造价将达到2.4亿美元。此外,TIA系统不出意外地遭到了上至美国国会下至民权组织的广泛非议。

目前,国外非常多的国家已经开始使用犯罪预测系统。据美国官方公开的数据, 仅仅只是美国最少 20个以上城市、1000个以上执法人员正在使用预测性警务系统。

报道称,美国孟菲斯市警察局启用Blue CRUSH预测型分析系统后,过去五年暴力犯罪率大幅下降。

美国马里兰州和宾夕法尼亚州也开始启用一种能极大降低凶杀犯罪率的犯罪预测软件,因为其能预测罪犯假释或者缓刑期间的犯罪可能性,这款软件还成为了法庭假释条款和审判的参考依据。

专家称预测犯罪“毫无用处”

尽管前景听起来很美好,但“预测犯罪”的准确性和有效性仍有待商榷。

近日,就有人工智能领域的知名专家说,预测性的监管工具不仅“毫无用处”,而且容易大大夸大暴力犯罪的可能性。

在本月早些时候发表的一封信中,来自麻省理工学院、哈佛大学、普林斯顿大学、纽约大学、加州大学伯克利分校和哥伦比亚大学的专家们就这一问题发表了看法,他们对这项技术的怀疑态度达到了前所未有的程度。

人工智能专家切尔西?巴拉巴斯(Chelsea Barabas)、卡蒂克?迪纳卡尔(Karthik Dinakar)和科林?多伊尔(Colin Doyle)在《纽约时报》(New York Times)的一篇专栏文章中写道:“在预测暴力时,风险评估提供的是更神奇的思维,而不是有用的预测。”

预测性警务工具,或风险评估工具,是用来预测某人未来犯罪可能性的算法。

根据美国国家司法研究所(National Institute of Justice)的数据,预测性警务是:“(利用)信息、地理空间技术和基于证据的干预模式的力量,以减少犯罪和改善公共安全。”

随着人工智能的迅速发展,这些工具已经开始进入法官和警察部门的日常程序,法官利用它们来决定该如何判决,警察部门则利用它们来分配资源等等。

它也被用来评估面临审判的人再次犯罪的可能性,以及他们是否应该被拘留。

其中,法官最常用的工具之一被称为公共安全评估(PSA),它和其他许多工具一样,根据犯罪历史和个人特征来计算。

根据计算结果,该工具可能会将一个人标记为“新的暴力犯罪活动”的候选者。

尽管该技术被定位为先发制人打击犯罪的一种方式,但专家表示,它的能力被大大夸大了。

研究人员写道,在预测未来的暴力事件时,算法风险评估被吹捧为比法官更客观、更准确。

“从政治角度看,这些工具已经成为保释改革的宠儿。但他们的成功建立在这样的希望之上:风险评估可以成为纠正法官错误直觉的宝贵途径。”

AI可能会造成“冤案”

专家们反对这种预测犯罪算法的理由之一是对其准确性的疑虑。

专家表示,这些工具往往高估了被指控者的暴力风险,而事实上,审判期间犯罪的可能性很小。

据报道,华盛顿特区94%的犯罪嫌疑人被释放,其中只有2%的人随后因暴力犯罪被捕。然而研究人员指出,在各州,有30%等待审判的人被拘留的情况并不罕见,这种比例的悬殊显然揭示了一个“过度监禁”的问题。

研究人员写道,(这些工具)给法官提供的建议让未来的暴力事件看起来比实际情况更可预测、更确定。但在这个过程中,使用这种AI风险评估工具可能会持续性地导致大规模监禁情况的出现,并让人们产生误解和恐惧。

专家们说:“如果这项技术真正准确,它应该能预测出几乎所有人都处于零风险状态,因为统计上的可能性很低。相反,PSA牺牲了准确性,只是为了在暴力可能性低、不确定或无法计算的人群中区分出有问题的人。”

而以此前提到的意在辨别恐怖分子的TIA系统为例,假设这个预言系统的准确性能达到99%,那么它理论上就能预言出恐怖分子群体中99%的未来罪犯,同时也会在无辜群众中错误将1%的人判定为未来恐怖分子。

假设在全美国3亿人口中有1000人是真正的“未来恐怖分子”,而剩下的299999000人都是清白的,那么理论上会有2999990人被错误地列入恐怖分子的行列。也就是说,这个系统将会逮捕将近300万无辜的人——几乎是那些真正罪犯人数的3000倍。

AI到底如何判定人“有罪”?

人工智能究竟如何预测犯罪?其实,其判断依据跟人类警察也大致相同。

富有多年工作经验的警察们往往能总结出自己的一套辨别犯罪分子的依据,而破案时警察们也经常需要一些基本经验判断,如什么区域、时间容易犯罪率高发,什么人物更有可能犯罪等。

这些归纳性的判断有其意义,但对于某个特定个体而言,用类似分析去判定其“有罪”显然对其不公平。

此外,算法的设计者也可能在算法中无意加入了自己的偏见,而机器学习算法的黑盒子属性让其设计者也不能肯定其判定逻辑是什么。

1980年代,美国军方使用机器学习算法训练机器分辨美苏两国的坦克,但后来却发现计算机并未真正认出两国坦克的设计不同,而是把像素更高的图片当作“美国坦克”,因为训练使用的资料中俄罗斯坦克的照片更模糊。

“新技术有为善和作恶的潜在力量。如果你的假设没有被仔细考证,那么机器学习技术只会带来更多的不公平和加速现有的不平等。”普林斯顿大学法学系教授 Alexander T. Todorov 表示。

为了更好地预防犯罪,在近日对人工智能学家的采访中,研究人员建议减少对算法的依赖,将资源投入到更全面的措施中。

文章写道,政策解决方案不能局限于锁定“正确的”人。他们必须通过更广泛的社会政策和社区投资来解决公共安全问题。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论