人工智能:助手or威胁?

头条推荐
佚名
“人工智能”的发展掀起了新一轮科技革命和产业革命的浪潮,对社会产生了深刻且广泛的影响。对于“人工智能”的迅猛,很多学者和大众确表现的忧心忡忡,认为”人工智能”将取代人类?...

“人工智能”的发展掀起了新一轮科技革命和产业革命的浪潮,对社会产生了深刻且广泛的影响。对于“人工智能”的迅猛,很多学者和大众确表现的忧心忡忡,认为”人工智能”将取代人类?

今日《华尔街日报》发表文章总结了一些用人工智能挽救自杀人员生命的项目。有人担心人工智能未来会给人类带来威胁,但是目前这项技术却展现了自己温情的一面。以下为文章全文:今年1月底,一位来自阿根廷北部的女性在自己的Facebook上写了这样一句话:“不能在这样下去了。到了说再见的时候了。”仅仅不到三个小时之后,一组医护人员赶到了这位女性的家中。

并且挽救了她的生命——这一切都得力于先进的人工智能技术。这名女性写下的这句话吸引了Facebook人工智能系统的注意,该系统能够发现与自杀相关的语言。系统在发现这句话之后,判定这是一个紧急事件,并且将其发到了监测人员那里。监测人员在看到它之后立刻给布宜诺斯艾利斯官方发送了警告。不久之后,医疗团队就找到了这位女性的住所。

布宜诺斯艾利斯法院调查主管恩里克·德尔·卡里尔(EnriquedelCarril)表示:“人工智能技术能够成为一种非常强大的工具。在悲剧发生之前,我们成功的在阿根廷的一个郊区挽救了这名女性。这样的事情真是太棒了。”Facebook的自杀预警系统知识众多使用人工智能技术发现有自杀倾向的人的项目这一。在这些项目中,研究人员使用计算机对海量数据进行梳理。

例如电子病历、社交媒体内容、患者的音频和视频录像等,来寻找有自杀倾向的人的共性。之后算法会开始预测哪些新患者有自杀的倾向。来自机器的协助在判定自杀倾向方面,机器无法取代人类。但是这些工具却可以帮助医疗机构更加准确的定位那些有可能主动结束自己生命的人,未来它甚至可能在医生给患者看病的时候,就提醒医生这名病人具有自杀倾向。

然而这项技术也受到了批评人士的质疑,他们认为让机器接触患者的个人数据,有可能会泄露患者的隐私。其实科技不仅能够判断患者是否具有自杀的可能,还能判断很多其他的心理健康健康问题,例如抑郁、精神分裂和抑郁狂躁型忧郁症等。然而在心理健康领域,自杀倾向探测是最重要的一个部分。其原因之一,就是当前世界上的自杀率正在逐渐升高,尤其是青少年的自杀事件。

美国疾病控制和预防中心透露,2006年,每隔16分钟就会有一个美国公民自杀。到了10年之后的2016年,这一事件变成了12分钟。另外,事实证明传统的自杀预测手段效率非常低下。佛罗里达州立大学最新的一个分析显示,医生评估等传统的自杀预测手段,其效果只比“瞎猜”高一点点。佛罗里达州立大学在《心理学公报》上发表了这个研究报告。

相比之下,人工智能技术却能够提供更好的预测效果。佛罗里达州立大学联合其它一些机构之后进行了另一个研究,这个研究发表在了去年的《临床心理科学》杂志上。他们使用人工智能分析了田纳西将近1.6万家医院病人的医疗档案。算法找到了自杀患者的一些共性,例如抗抑郁药品使用史以及被枪械伤害的历史。人工智能判断一个人在接下来两年内是否会自杀的准确率达到了80-90%。

佛罗里达州立大学心理学教授杰西卡·里贝罗(JessicaRibeiro)表示,研究结果显示,人工智能技术能够对许多风险因素进行分析,从而发现各个因素之间复杂的关系,里贝罗专注于预防自杀方面的研究。除了对医疗记录进行分析之外,AI还可以使用其他一些实时数据对患者进行分析,例如患者对医生说的话,已经他们说话时的语气。

辛辛那提儿童医院的计算医学部门主管约翰·帕斯迪安(JohnPestian)在2016年在《自杀与生命威胁行为》学报上发表了自己的研究成功。帕斯迪安对379个人进行了研究,这些人来自三个类别:具有严重自杀倾向的人、患有心理疾病但是不至自杀的人以及一个受控组。帕斯迪安对这些人进行了问卷调查与面对面访谈,访谈过程中全程录像。

算法能够较为准确的判断哪些人具有严重自杀倾向以及哪些人患有心理疾病但是没有自杀风险,准确率达到了93%。研究结果显示,相比于具有严重自杀倾向的患者,那些没有自杀倾向的患者笑容更多,叹气的次数更少,表达出的愤怒情绪与精神痛苦也更少。帕斯迪安表示,这些信号只能在与病人的面对面交流中才能够看到,它们是医疗档案中无法体现出来的东西。

音频分析帕斯迪安利用自己对人工智能的研究开发了一个名为SAM的应用,目前这个应用正在辛辛那提的学校和诊所中进行测试。这个应用可以记录治疗者和患者之间的对话,同时对录音进行语言学分析,如果应用判断患者具有自杀倾向,它会对医生进行实时的提醒。另外一个系统也采用了类似的手段,这既是CogitoCorp.所开发的Cogito’sCompanion。

目前有大约500个用户正在使用这个系统,它可以分析用户手机中的数据,例如经常联系的人以及每周的活动距离等。用户也可以录制简短的音频日记,然后系统会对音频进行分析。Cogito公司表示,这个应用能够探测抑郁症和自杀倾向,其准确率超过80%。一些私人部门也在努力使用人工智能来探测自杀倾向,而且这些项目的普及程度更高。在过去5年里,人工智能虚拟助手大行其道。

例如苹果的Siri,这些服务都已经开始了这方面的探索,当用户向虚拟助手提问与自杀有关的问题时,它们会劝说用户联系美国自杀预防热线。这些服务所使用的关键词包括“自杀”与“我想要跳河”等词语。在过去超过10年的时间里,Facebook一直在进行预防用户自杀方面的尝试,但是去年他们却受到了批评,因为有多个用户在Facebook平台上直播了自己的自杀过程。

人们开始质疑Facebook预防用户自杀方面的效果。2017年11月,Facebook宣布他们将会开始使用人工智能来对人们发表的文字进行分析,在发现危险和紧急事件的时候将文字内容立刻发送给监测人员,从而做出最及时的反应。该公司表示,2017年秋的一个月里,他们的人工智能系统发现并且介入了100个用户的自我伤害事件。

Facebook公司发言人威廉·内维厄斯(WilliamNevius)表示:“我们一直在寻找新的方法来提升工具效率。我们知道人工智能是一项新的技术,我们一直在寻找新的方法来为人们提供帮助。”未来发展障碍然而虽然企业希望使用人工智能技术来预防自杀,他们也将会面临一系列的道德质疑。首先,就是透明性问题。本来已经有很多人开始质疑科技企业从用户那里收集数据的行为。

并且质疑企业使用用户数据的方式。随着越来越多的企业开始收集用户心理健康信息,这种质疑将会越来越频繁。如何应对这种质疑,是科技企业们不得不需要考虑的事情。另外,法律和监管问题也会在未来出现,例如如果人工智能做出了错误的判断,谁需要为此承担责任。举个例子,如果系统判断一个没有自杀想法的个人具有自杀倾向,会让这个人的记录中出现污点。

一些质疑者认为,隐私问题会是这种研究最大的发展障碍。要想让人工智能系统正常工作,研究人员需要先让系统接入大量曾有自杀倾向的人员数据,然而这些人不一定会授权给研究者使用他们的医疗记录。Frost&Sullivan的产业分析师西达尔特·萨哈(SiddharthShah)就表示:“有多少人愿意将自己的敏感心理健康信息分享给算法呢?”一些企业正在努力尝试解决这个问题。

例如一家名为Qntfy的公司,该公司正在招募愿意将自己的数据捐献给研究机构的人,目前已经有超过2200人自愿贡献了自己的信息与数据。该公司表示,在对数据进行分析之前,他们会擦出其中的个人信息。最后还有一个阻碍,那就是人类的语气与对话语境,对于人工智能来说,这也是最难解决的一个问题。我们在说话的时候,同样一句话,不同的语气以及不同的对话对象。

可能让这句话有着完全不同的意思。斯坦福大学临床心理学家和人工智能研究人员亚当·米纳(AdamMiner)就表示:“例如’我讨厌这样,我活不下去了!’这句话,当你对医生说这句话时,它的意思和在社交媒体上说这句话可能会完全不一样。”

(原标题:人工智能威胁人类? 究竟是怎么回事?为何会这样?)

THEEND