IBM:人工智能也有道德准则

信息化观察网
编译
近年来,人工智能在向用户推荐内容方面表现优异,或者说,有点好得过头。技术型公司通过使用人工智能,根据用户对内容的反应,优化向用户推荐的内容。对于提供内容的公司来说,是一件好事,因为这一特性能让用户...

近年来,人工智能在向用户推荐内容方面表现优异,或者说,有点好得过头。技术型公司通过使用人工智能,根据用户对内容的反应,优化向用户推荐的内容。对于提供内容的公司来说,是一件好事,因为这一特性能让用户花费更多的时间来使用他们的应用程序,从而为他们带来更多的收益。

但是能为公司带来好处的不一定也会给用户带来好处。一般来说,我们想要看到的未必就是我们应该看到的。有些公司的业务模式是窃取用户关注度,那么又怎么让这些公司既遵守道德规范,又向用户提供高质量的内容?

为了解决这一难题,IBM Research和MIT Media Lab的科学家团队开发出了一种人工智能推荐技术,在根据用户喜好优化推荐结果时,也会遵守其它约束条件,如道德和行为准则。这一研究团队的组长是来自IBM Research的Francesca Rossi,该科学家团队展示了人工智能在电影推荐系统里面的作用,允许父母对孩子观看的电影设置道德约束。

他们也曾试图将道德规则整合到人工智能算法中,但是这些大多是基于静态的规则。例如,用户可以指定具体的新闻内容,或者新闻的种类,并以此让算法避免推荐这些新闻。这种方法能够用于特定的环境下,但是也有局限性。

“制定明确的规则集不难,”IBM研究人员Nicholas Mattei说,“但是网上的内容很多,也有庞大的数据量,你不可能把想让机器遵循的所有规则都写下来。”

为了解决这一问题,Mattei和她的同事开发出了一个方法,即使用机器学习,通过实例来制定规则。Mattei说道:“我们认为通过实例来学习规则的想法是一个很有意思的技术难题。”

通过实例学习道德规则

研究人员选择电影推荐作为示范项目,因为目前已经存在很多和电影相关的数据,并且用户喜好和道德规范之间的差异也能够通过此方法展现出来。例如,父母并不想让视频流服务向孩子提供不合适的内容,即使孩子对这些内容的反应积极。

这个人工智能推荐技术使用了两个不同的训练阶段。第一个阶段是在离线模式下运行,意味着可以在系统和终端用户开始交互前运行。在这一阶段期间,研究人员会向系统录入实例,设定推荐引擎应该遵守的约束规则,然后人工智能会检测这些实例,与这些实例相关的数据也会创建自己的道德规则。和所有的机器学习系统一样,你录入的实例和数据越多,创建规则的能力就越强。

在电影推荐案例中,即离线训练阶段,父母会向人工智能提供一系列合适和不合适内容的实例。“这一系统能够学习这些实例,然后在孩子使用这一系统时,避免向孩子推荐不合适的内容。”Mattei说道。

第二个训练阶段是在和终端用户直接交互的时候进行的。同传统的推荐系统一样,人工智能会根据用户的喜好优化推荐结果,以及向用户提供用户所喜爱的内容。

既要符合道德规范,又要满足用户喜好,这未免会有些矛盾,但是研究人员能够设置一个阈值来设置这两者之间的优先性。在IBM的演示中,父母能够通过一个滑动条来设定道德原则和孩子喜好之间的平衡性。

系统是如何帮助解决人工智能推荐系统中的其它问题,这个不难看出。IBM研究人员也在医疗卫生领域测试了这一技术,并成功地将算法部署到药物剂量系统中。

团队也改变了用于系统训练的实例类型。“我们也对这些实例进行了试验,这些实例不仅能起到约束的作用,也能够用于设定优先性,因此我们也可以更加清楚地解释用于道德行为的实例。”Rossi说道。

用户应该如何约束自己

未来的研究团队将会致力于让人工智能能够在更加复杂的环境下运行。“在这个使用案例中,我们所关注的只是单一的推荐系统,例如是否应该推荐某一部特定的电影,”Rossi说道:“我们计划扩大这项工作,以此对动作序列进行限制。”

这一改变能够让算法解决其它类型的问题,例如过滤气泡(filter bubbles)和技术成瘾(tech addiction),即一个毫无伤害的行为(如检查手机通知,或者是阅读有偏见的新闻),经过长时间的重复或者和其它类似的行为结合时,也会产生反作用。

但是Rossi和她同事开发出的方法在父母和儿童,医生和病人的情况下表现良好,但是在涉及只有一个用户的情况下会遇到一些限制,我们在网上所使用的大多数应用程序都是如此。在此情况下,用户应该自己设置道德准则和约束规则。

“在一些更加偏向于个人的系统中,你或许会有一种更加高级的想法,如‘我想看其它类型的电影’或者‘我不想在手机上花太多时间,’”Mattei说道:“但是如果你能够表达出来,那么你就能够控制它,你也要有自己的道德准则,并且也要去遵循。”

一个可行的解决方案是让用户选择一名家庭成员来设置和控制规则,一些科技高管也进行了类似的试验,这个也是IBM研究团队所要研究问题的一部分,因为他们已经和MIT Media Lab开展更加广泛的合作关系,专注于对工程道德推理的研究。

第27届国际人工智能联合会议将于7月17号在斯德哥尔摩(瑞典首都)举办,IBM研究人员将在这次大会上展示他们的算法。

原文作者:BEN DICKSON

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论