要让AI具备人类常识,究竟有多难

栈外
IBM人工智能系统Watson的创造者大卫·费鲁奇创办了公司Elemental Cognition,致力弥补AI智力空白,教会机器自行学习获取常识。遵循逻辑规则,其AI系统CLARA将深度学习和人工输入数据相结合,通过和用户互动进一步获取信息,AI或能获取常识。

IBM公司人工智能系统Watson的创造者大卫·费鲁奇正在以童话故事的方式向人们推介一款新产品。

故事中,主人公费尔南多和佐伊各买了一些绿植。费尔南多将他的绿植放在窗台上,然而佐伊选择将她的关在小黑屋里养。几天后,费尔南多的植物绿意盎然,而佐伊的逐渐枯黄。她随即将植物移到窗台上,不久恢复生机。

这时一个问题出现在屏幕上:“是费尔南多把他的植物放在窗台上这个动作使其茁壮成长吗?实际上,是窗台上有充足的光照,光照保证了植物生长。”

这个问题揭示了部分费鲁奇的AI系统学习工作的原理。可能对于各位来说,把植物放到有光照的窗台理所应当,但是AI系统理解起来并非易如反掌。

费鲁奇和他的公司Elemental Cognition致力弥补AI系统的认知空白,他们尝试教会机器自己获取并运用知识,逐步像人们一样交流、思考、探索周遭。人类早已习惯了常识的存在,但机器还不具备。

纽约大学教授欧内斯特·戴维斯在这个领域研究十余年了。他认为常识对于推进从语言理解到机器人技术的一切都至关重要。“这对我们要使用AI进行的大多数操作而言都很重要!”

戴维斯说,机器需要掌握一些基本概念,比如时间、因果、社交互动等,从而才能展示出真正的智慧。然而,这个问题恰恰是当前面临的最大障碍。

结合机器学习和大数据,新一轮的AI进步为我们提供了能够对口头命令做出响应的小工具,以及能够识别路障的自动驾驶汽车。令人欣喜的同时,也要意识到他们的缺陷——均不具备常识。

Alexa和Siri都能够复读Wikipedia上面罗列的一堆植物,但它俩都不能告诉你把绿植养在不见光的地方后果会怎样。同理,躲避路障的程序往往也不清楚为什么躲开人群比躲开路标更重要。

让我们再来看看费鲁奇的计算机。费鲁奇在屏幕上单击“是”按钮,以回答计算机关于费尔南多的绿植问题。在服务器上,名为CLARA的AI程序将该信息添加到人造的常识库中。

这就像一个永不停息的好奇孩子一样,CLARA向费鲁奇接二连三地询问了有关植物故事的问题,试图“理解”事物为何以这种方式展现出来。

“我们能否让机器真正理解他们阅读的内容?” 他说:“这是一件非常困难的事情,而这最终就是元素认知的意义。”

就这一问题,费鲁奇已钻研多年。十年前,当他领导IBM Watson开发时,用计算机回答美国老牌智力问答节目Jeopardy!的问题几乎是不可能的。

然而在2011年,Watson接连击败了数位真人冠军。Watson解析大量文本,以找到琐碎的线索回答Jeopardy!的问题。

对于AI而言,这是一个极高的成就,但是显然还是缺少真正的理解:在一档电视节目中,机器人得到“美国城市”的提示,却错答“什么是多伦多?”由此可见发展依旧道阻且长。

费鲁奇说,Watson的局限性以及该项目的大肆宣传,给他满满压力以及动力去制造更了解世界的机器。Watson已经成了IBM的一个品牌,代表一系列困难繁杂的技术,而不是普通机器。

这场Jeopardy!比赛一年后,费鲁奇只身离开,创办了Elemental Cognition。它由Bridgewater Associates和其他三方共同资助。Bridgewater Assosictes是由雷·达利奥创立的对冲基金,管理约1,600亿美元的资金。

Elemental Cognition坐落于Bridgewater办公区,在郁郁葱葱的林地中,俯瞰康涅狄格州韦斯特伯特的湖泊。

Watson一举成名,AI也逐步转型。深度学习,是一种教计算机进行面部识别、语音传输,输入大量数据来执行各种操作的方法。深度学习愈发强大,并逐步应用于多个领域。

过去几年间,深度学习在言语交流领域取得长足进步。向特定种类的人工神经网络输入大量文本,能够生成合理回答,或是高连贯性的文本模型。

Google、Microsoft 、OpenAI和百度的团队已开发了更大更复杂的模型将语言处理得更好。

然而,常识的缺乏限制了这些模型进一步发展。

比如,费鲁奇的团队为高级语言模型传输费尔南多和佐伊的故事,并要求将“佐伊将她的绿植移到有阳光的窗边,不久后……”这一句子补充完整。

由于抓不住植物只有在阳光下才能茁壮生长的重点,机器的回应显然是基于数据匹配、词语的机械堆积:“她发现了一些东西,不愉快”、“窗台上可以看到肥料”、“另一盆植物从卧室里消失了”。

CLARA的目标是通过明确的逻辑规则,将深度学习技术与传统知识输入的方式相结合。比如植物有叶子且需要光照。它使用统计方法来识别句子中的名词和动词等概念。除此之外还要探测一些“核心知识”,例如发生了什么事,又会导致其他什么事。

从Mechanical Turkers众包特殊领域知识,然后内置到CLARA中。比如光促进植物生长,而窗户能透光。通过输入正确数据至深度学习模型,或许会有助于机器正确回答有关植物学的问题,但这个想法也有可能不成立。

根据以往的经验,手动构建知识输入系统将非常耗时。因此,CLARA将其给出的事实与深度学习语言模型相结合,以产生其自身的常识。以绿植故事为例,这可能会使CLARA得出结论,认为靠近窗户有助于植物生长。

CLARA还通过与用户互动来收集常识。如果遇到问题,它会提问哪个陈述是正确的。

“尽管肩负挑战,但我认为前途无量。”麻省理工学院的教授罗杰·利维说道。他致力于AI、语言和认知科学的交汇。“语言绝不仅仅是一系列数据的堆砌组合,它与含义、逻辑、常识紧密相连。”

很难评定费鲁奇在赋予AI常识方面做了多大贡献,因为Elemental Cognition相当神秘。该公司最近发表了一篇论文,认为多数机器在理解方面的所做的努力欠佳,应由那些对文本含义提出更深层次问题的机器代替。但Elemental尚未就此发布更多细节。

推广如此复杂的系统是个棘手问题。费鲁奇似乎正寻找一家财大气粗、坐拥海量用户的的公司提供支持。如果更多人可以参与到帮助引擎建立常识中,AI智能化将加快。

费鲁奇还有一个想法,认为系统可以和学生进行有效互动:以一段文字而言,系统既可以检查学生是否理解文章内容,也可以反过来帮助自己建立知识库。

费鲁奇说:“欢迎有意向的机构对Elemental投资,我们乐意进一步沟通。我们暂时不缺资金,但是我很想达成合伙关系或进行并购。”

CLARA并不是唯一致力解决常识问题的AI。

华盛顿大学艾伦人工智能研究所研究员崔艺珍教授最近开发了另一种方法,将深度学习与符号逻辑相结合,称为COMET。在交谈或回答问题时,与纯深度学习语言模型相比,该程序的混淆频率更低,但仍会出错。

崔艺珍说,她希望了解CLARA的内部运行。“大概率看,CLARA的存在有其道理。我觉得用CLARA举几个小例子并不难,但很难相信有人真的可以将它适用于各种常识。”

纽约大学的戴维斯不确定常识AI是否已准备好迎接其辉煌时代。他怀疑,机器要像人类一样轻松地学习知识,可能需要一个根本性的突破。

他举例表示,尚不清楚机器如何掌握人类本就不确定的含义。“我们似乎忽略了一些最重要的东西,目前尚未发现。”

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论