展望2019:AI大神眼中的人工与智能

红杉汇(ID: Sequoiacap)
编译/洪杉
AI既不是救世主,也不是灭世恶魔。尽管AI越来越表现出无所不能的潜力。抛开非理性的恐惧与期待,放下空洞的道德哲学思考,把注意力重新放到AI能做什么和不能做什么这类现实意义的问题上吧。

[ 编者按 ] AI(人工智能)既不是救世主,也不是灭世恶魔。尽管AI越来越表现出无所不能的潜力。

抛开非理性的恐惧与期待,放下空洞的道德哲学思考,把注意力重新放到AI能做什么和不能做什么这类现实意义的问题上吧。

前Google大脑联合创始人、前百度首席科学家吴恩达,Facebook AI研究院的创始人Yann LeCun,Cloudera机器学习的总负责人Hilary Mason以及埃森哲的AI全球负责人Rumman Chowdhury博士就是这样做的。

他们审视了AI在2018年取得的成就和进步,比如基于大数据的AI训练、科技公司的应用;也展望了2019年AI的发展趋势,比如“少样本学习”、“通用性”的进展、自我监督学习和强化性学习。当然,少不了对于道德与偏见的讨论以及监管规则的变化。

AI的应用不仅限于科技公司的软件,正如吴恩达说的那样,“当制造公司、农业设备公司或医疗保健公司开发数十种AI方案来帮助其业务发展时,就是下一波大规模价值创造浪潮来临的时候。”

AI被认为是一种同时能拯救世界和终结世界的技术。

为了绕过关于AI喧嚣和夸张的讨论,VentureBeat采访了这个领域的杰出人士。多年来,他们与世界上最大的科技公司合作,对AI形成了自身看法。VentureBeat采访了谷歌大脑的联合创始人吴恩达、Cloudera机器学习的总负责人及 Fast Forward Labs的创始人Hilary Mason、Facebook AI 研究院的创始人Yann LeCun以及埃森哲公司的AI全球负责人Rumman Chowdhury博士。我们希望知道他们眼中2018年AI领域有哪些里程碑,以及2019年会发生的大事。

●Rumman Chowdhury

Rumman Chowdhury博士是埃森哲公司应用情报部门的常务董事,也是该公司负责AI项目的全球领导者。

Chowdhury曾在2018年表示,她很高兴看到公众对AI的能力和局限有了更多认识,也很高兴听到人们对AI带来的威胁有了更平衡的探讨——超越了对《终结者》中智能机器掌控全球的那种恐惧。她说:“随之而来的是人们对隐私、信息安全,以及AI对我们和未来几代人的影响的日益关注和疑虑。”

“在道德和AI领域,我希望我们深入探讨AI将面临的难题,那些没有明确答案的问题。AI和基于物联网的监控之间的‘正确’平衡是什么?这种平衡应既能保障信息安全,又能抵制强化现有种族歧视的惩罚性监控。我们应该如何重新分配从先进技术中获得的收益,才不会进一步扩大贫富差距?儿童应接触AI至何种程度,才会成为‘AI原住民’而不被其操纵或同质化?我们如何利用AI实现教育的规模化和自动化,又能让创造力和独立思考蓬勃发展?”她问道。

Chowdhury预计,在未来一年,世界各地的政府将加强对科技的审查和监管。

她说道:“AI以及全球科技巨头所掌握的权力,引发了许多有关监管的问题。2019年我们将不得不需要找到这些问题的答案——当一项技术是可产生特定结果的多用途工具时,你如何监管它?如何制定既不扼杀创新、又不偏袒大公司 (谁能承担合规成本)或小企业的监管规则?我们在什么层面进行监管,全球、国家,还是地区?”

Chowdhury说:“我希望监管机构、技术专家和研究人员认识到,我们的AI竞赛不仅仅是计算能力和技术智慧的较量,就像冷战不仅仅是核能力的较量一样。我们有责任用一种更公正、更公平、更合理的方式重建世界。我们也难得有机会能这样做,这一刻转瞬即逝,我们不要浪费了。”

在消费者层面上,她认为在2019年,AI将在家庭中得到更多应用。许多人已习惯于使用Google Home和Amazon Echo等智能音箱及其它智能设备。

“我想我们都在等机器人管家出现。”Chowdhury说。

● 吴恩达

吴恩达是斯坦福大学的计算机科学副教授,也是谷歌大脑的联合创始人,该项目旨在将AI推广到谷歌的许多产品中。他也是Landing AI公司的创始人,该公司帮助很多企业将AI融入到运营中。

在谷歌工作了三年多之后,他于2017年辞去了首席AI科学家的职务,加入了另一家科技巨头百度,成功帮助百度转型为AI公司。

“我认为,明年(2019年)很多大事会发生在软件行业以外的AI应用领域。我们在帮助谷歌和百度等公司,以及Facebook和微软方面做得不错。现在,Square和Airbnb、Pinterest等公司也开始使用AI。我认为,当制造公司、农业设备公司或医疗保健公司开发数十种AI方案来帮助其业务发展时,就是下一波大规模价值创造浪潮来临的时候。”

关于2018年大众对AI的认识,吴恩达也很高兴大众不再关注机器人杀手的情境。

在未来的一年里,吴很高兴看到AI和机器学习研究的两个特定领域取得进展,其中一点是AI可用更少的数据得出准确的结论,也就是“少样本学习”。

吴恩达说:“第一波深度学习发展浪潮主要是大公司用大量数据训练极庞大的神经网络,对吧?所以,如果你想建立一个语音识别系统,你需先用10万个小时的数据对其进行训练。如果想要训练机器翻译系统呢?用无数对平行语料库的句子对其进行训练。我越来越经常在小型数据上看到结果。即使只有1000张图像,你也想从这些数据中得到结果。”

另一个是计算机视觉的进步,被称为“通用性”。

“如果用斯坦福大学高端X光机拍摄的原始图像进行训练,计算机视觉系统可能会非常好用,许多领先的公司和研究人员已经创造出了比人类放射科医生更优秀的系统。 但如果把训练模型应用于来自低端X光机、不同医院的X射线,人类放射科医生比算法更能概括出病人的问题。我认为有趣的研究是提高学习算法在新领域的通用性。”他说。

● Yann LeCun

纽约大学教授Yann LeCun是FacebookAI研究中心(FAIR)负责人和FacebookAI研究院院长,带领研发PyTorch 1.0和Caffe2,以及大量的AI系统,如Facebook每天使用数十亿次的文本翻译AI工具,或先进的围棋强化学习系统。

Yann LeCun认为,Fair在研究和工具上采用的开源政策推动了其他大型科技公司采取同样的做法。

“你今天在AI领域所看到的进步速度,很大程度上是因为,与过去相比,越来越多的人交流得更快、效率更高,做的研究也更开放。”

在伦理方面,Yann LeCun很高兴人们也看到了做出决策的危险性。Yann LeCun说,他不认为AI中的道德和偏见已经成为需要立即采取行动的问题,但人们应该为此做好准备。

Yann LeCun说,通过深度学习,研究人员已经可以很好地管理认知,但缺少的是对一个完整AI系统整体架构的理解。

“不同的人给AI系统起了不同的名字,但本质上人类婴儿和动物都是通过观察了解世界是如何运转的。我们还不知道如何用机器来做这件事,这是巨大的挑战。” Yann LeCun说:“如果我们能弄清楚,我们就能在AI和机器方面能取得真正的进展,让机器拥有一点常识,或者虚拟助理不会让人失望,因为它们可以就更广泛的话题和我们讨论。”

“在解决这个问题的过程中,我们希望找到方法来减少任意特定任务的必要数据量,比如我们已经通过在翻译和图像识别中使用自我监督学习,对Facebook的服务产生了影响。因此,这些事情不仅有长期影响,而且会产生即时的效果。 ”

Yann LeCun希望,AI在建立事件间的因果关系方面取得进展,不仅仅是通过观察来学习,而是理解,例如,如果人们在用伞,可能在下雨。

他说:“这将是非常重要的,因为如果你想让一台机器通过观察,来学习世界的运转,它必须能够知道它能影响到什么,从而改变世界的状态,而有些事情是做不到的。”

●Hilary Mason

Fast Forward Labs被收购之后,创始人Hilary Mason成为Cloudera公司机器学习部门的总负责人。但Fast Forward Labs仍在运营中,制作应用机器学习报告,并帮助客户预测他们未来6个月至2年的情况。

2018年,AI领域的一个进步让Mason感到意外,那就是多任务学习,它可以训练单个神经网络,在推断图像中的物体时,应用多种标签。

Fast Forward Labs也一直在就AI系统的伦理影响,向客户提供建议。

“从五年前起,我们就一直在写关于道德的报告,但今年(2018年)人们真正开始把注意力放在道德上面。”Mason说,“我希望创造AI产品的技术人员和商业领袖将看重道德和偏见的问题,并且成为业内的默认规范。”

Cloudera公司最近推出了container-based machine learning platform(基于容器的机器学习平台),Mason认为,这种趋势将在未来几年持续,企业可以选择本地或者在云端部署的AI。

最后,Mason认为AI的业务会继续演变,会在业界形成普遍实践,而不仅仅是在公司内部。

“如果你是一家公司的数据科学家,或者机器学习工程师,然后跳槽到另一家公司,你的工作将完全不同:不同的工具、不同的期望、不同的报告结构。但我想我们会看到一致性。”她说。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论