【案例剖析】人工智能发展中存在的5个限制性问题,五解解千愁

WatchStor.com
工程机械模拟器
人工智能似乎无处不在。我们在家里和手机上都能体验到。在我们意识到这一点之前——如果企业家和商业创新者是值得信赖的——人工智能将出现在我们购买和使用的几乎所有产品和服务中。此外,它在...

人工智能似乎无处不在。我们在家里和手机上都能体验到。在我们意识到这一点之前——如果企业家和商业创新者是值得信赖的——人工智能将出现在我们购买和使用的几乎所有产品和服务中。此外,它在解决业务问题方面的应用也在飞速发展。与此同时,人们越来越担心人工智能所造成的影响:人工智能驱动自动化对工作场所、就业和社会产生的影响。

在如Alexa、Siri和AlphaGo这样的令人恐惧且赚足流量的胜利中,有时候会使人看不清一个事实:人工智能技术本身——即机器学习和它的子集,深度学习——有很多的局限性,仍然需要不遗余力去克服。这是一篇有关讲述这些限制的文章,旨在帮助高管们更好地理解什么可能会阻碍他们的人工智能的发展。在此过程中,我们(Michael Chui,James Manyika,and Mehdi Miremadi)还将强调有希望取得的进展,这些进展将有助于解决一些限制并创造一波新的机遇。

我们的观点来源于前沿工作的分析总结——研究、分析和评估数以百计的真实应用案例——以及我们与一些思想领袖、前沿科学家和人工智能前沿工程师的合作。我们一直在努力总结这种经验以帮助那些据我们所知往往只接触到他们自己的倡议,而没有很好地校准哪里才是前沿阵地,或者步调制定者已经在用人工智能做什么的高管们。

简而言之,人工智能的挑战和局限性正在为领导者创造一个“移动目标”问题:很难达到始终处于领先的优势。同样令人挫败的是,人工智能的发展遇到了现实世界的障碍,可能会降低人们对进一步投资的兴趣,或鼓励人们持观望态度。正如麦肯锡全球研究所最近的研究显示,在跨部门和部门内应用人工智能方面,领导者和落后者之间存在着巨大的鸿沟(见表1)。

希望缩小差距的高管们必须能够以一种明智的方式解决人工智能问题。换句话说,他们不仅需要了解人工智能在哪些方面可以促进创新、洞察力和决策;导致收入增加;以及提高效率,还要了解人工智能在哪些方面还不能产生价值。更重要的是,他们必须理解技术约束和组织约束(如文化障碍)之间的关系和区别;缺乏能够构建业务就绪、人工智能驱动的应用程序的人员;以及将人工智能嵌入产品和流程的“最后一英里”挑战。如果你想成为一名领导者,你就应该了解一些阻碍人工智能发展的关键技术挑战,并准备开发一些有前景的发展项目,这些项目可以克服这些限制,并有可能改变人工智能发展的轨迹。

挑战、限制与机遇

一个有用的出发点是了解深度学习技术的最新进展。可以这么说,人工智能领域最令人兴奋的进展是,这些发展在分类和预测的准确性方面取得了飞跃,而且没有与传统的监督学习相关联的常规“特征工程”有任何联系。深度学习使用大型的神经网络,它可以包含数以百万计的具有结构分层的模拟“神经元”。最常见的网络称为卷积神经网络和递归神经网络,这些神经网络通过训练数据和反向传播算法来学习。

虽然已经取得了许多进展,但还有更多的工作要做。关键的一步是将人工智能方法适用于 问题和数据的可用性。由于这些系统是经过“训练”的,而不是经过编程的,因此各种过程通常需要大量的标记数据才能准确地执行复杂的任务。获取大型数据集可能很困难。在某些领域,它们可能根本不可用,但即使可用,标识工作也可能需要大量人力资源。

此外,很难辨别通过深度学习训练出来的数学模型是如何获得特定的预测、推荐或决策的。一个黑盒,即使是做它的本职工作,获得的效用也可能有限,特别是当预测或决定影响社会并产生可能影响个人幸福的后果时。在这种情况下,用户有时需要知道运作背后的“原由”,例如为什么算法可以从具有法律影响的事实调查结果到具有监管影响的商业决策(如贷款)中给出推荐建议,以及为什么某些因素(而非其他因素)在特定情况下如此重要。

让我们探索五种相互关联的方式,在这些方式中,这些限制和开始迎战它们的解决方案正发挥作用。

限制1:数据标签

目前大多数人工智能模型都是通过“监督学习”进行训练的。这意味着,人类必须对底层数据进行标记和分类,这可能是一个相当庞大且容易出错的任务。例如,开发自动驾驶汽车技术的公司雇佣了数百人来手工标注原型车的视频输入时数来帮助培训这些系统。与此同时,有前景的新技术正在出现,例如流内监控(由Eric Horvitz和他在微软研究院的同事演示),数据可以在自然使用过程中进行标记。无监督或半监督的方法减少了对大型标记数据集的需要。两种有前景的技术分别是强化学习和生成式对抗网络(GANs)。

强化学习。这种无人监督的技术允许算法简单地通过试错来学习任务。这种方法采用的是“胡萝卜加大棒”的方法:对于算法在执行任务时的每一次尝试,如果行为成功,它都会得到“奖励”(比如更高的分数),反之则会得到“惩罚”。只要学习环境是真实世界的表征,通过重复,行为就会得到改善,在很多情况下甚至超越人类的能力。

强化学习以训练计算机玩游戏而闻名——最近,它与深度学习技术结合在一起。例如,在2017年5月,它帮助人工智能系统AlphaGo在围棋比赛中击败了世界冠军柯洁。在另一个例子中,微软提供了基于强化学习和适应用户偏好的决策服务。强化学习的潜在应用跨越了许多商业领域。可能的情况包括,一个由人工智能驱动的交易组合在价值上分别因收益而获得点数或因损失而失去点数;一个每次在推荐驱动的销售中获得积分的产品推荐引擎;以及因按时交付或减少燃料消耗而获得奖励的卡车路线软件。

强化学习还可以帮助人工智能通过开发以前无法想象的解决方案和策略(即使是经验丰富的从业者也可能从未考虑过这些解决方案和策略)来超越人类标记的自然和社会局限性。例如,最近,AlphaGo Zero系统使用一种新的强化学习方式,在从头开始学习围棋之后打败了它的前身AlphaGo。这意味着要从完全随机的游戏开始,而不是从训练人类及与人类一起玩的围棋游戏开始。

生成式对抗网络(GANs)。在这种半监督学习方法中,两个网络相互竞争,以改进和完善他们对概念的理解。例如,为了识别鸟类的样子,一个网络试图区分真实的和虚假的鸟类图像,而它的对手网络则试图通过制作看起来很像鸟类的图像来迷惑它,但事实上并没有。当这两个网络互相吻合时,每个模型对鸟类的表征就变得更加准确。

GANs生成越来越可信的数据示例能力可以显著减少对人类标记的数据集的需求。例如,训练一种从医学图像中识别不同类型肿瘤的算法,通常需要数百万个具有特定肿瘤类型或阶段的人类标记图像。但通过使用一种经过训练的GAN来生成越来越逼真的不同类型肿瘤的图像,研究人员可以训练一种肿瘤检测算法,该算法结合了一个更小的具有GAN输出的人类标记数据集。

虽然GANs在精确的疾病诊断中的应用还远未完成,但是研究人员已经开始在越来越复杂的环境中使用GANs。这些包括以特定艺术家的风格理解和创作艺术作品,利用卫星图像以及对地理特征的理解,来创建快速发展地区的最新地图。

限制2:获取大量的训练数据集

已经证明,使用线性模型的简单人工智能技术在某些情况下与医学和其他领域专家的能力想接近。然而,当前机器学习浪潮需要训练数据集,这些数据集不仅要有标记,而且要足够庞大和全面。深度学习方法需要成千上万的数据记录,才能使模型在分类任务上变得相对优秀,在某些情况下,还需要数以百万计的数据记录才能达到人类的水平。

复杂之处在于,对于许多业务用例来说,大量的数据集可能很难获得或创建(试想:利用有限的临床试验数据来更准确地预测治疗结果)。在分配的任务中,每一个微小的变化都需要另一个大数据集进行更多的训练。例如,教一辆自动驾驶汽车在天气不断变化的采矿地点进行导航将需要一个包含车辆可能遇到的不同环境状况的数据集。

一次性学习是一种可以减少对大型数据集需求的技术,允许人工智能模型在给出少量真实环境演示或示例(在某些情况下甚至只有一个)时学习一个主题。在只展示一个样本(例如一辆小货车)后,人工智能的能力将更接近于人类的水平,就能相对准确地识别一个类别的多个实例的能力。在这个仍在开发中的方法中,数据科学家首先会在模拟的虚拟环境中对一个模型进行预先训练,这个虚拟环境呈现一个任务的变体,或者在图像识别的情况下,显示对象的外观。然后,在展示了人工智能模型在虚拟训练中没有看到的一些真实世界的变化之后,模型将利用它的知识来找到正确的解决方案。

这种一次性的学习方式最终可以帮助系统扫描侵犯版权的文本,或者只显示一个标记后识别视频中的公司徽标。如今,这类应用才刚刚起步,但是他们的效用和效率很可能会迅速地扩大人工智能跨越多个行业的使用范围。

局限性3:可解释性问题

人工智能系统的可解释性并不是一个新问题。但是,随着深度学习的成功和采用,它也在不断发展,带来了更多样化、更先进的应用,也带来了更多的不透明性。更大及更复杂的模型使我们很难用人类的语言来解释为什么会做出某种决定(而在实时做出某种决定时就更难了)。这是一些人工智能工具在可解释性有用或确实需要的应用领域的使用率仍然很低的原因之一。此外,随着人工智能应用的扩展,监管规定也可能推动对更多可解释的人工智能模型的需求。

有望提高模型透明度的两种新生方法是局部可解释模型不可知解释(LIME)和注意技术(见表2)。LIME尝试识别训练模型最依赖的是输入数据的哪些部分,以便在开发进行预测。这种技术每次都考虑特定的数据片段,并观察预测结果的变化,从而对代理模型进行微调并开发一种更精确的解释(例如,排除眼睛,而不是通过鼻子来测试哪个对面部识别更重要)。注意技术将模型在做出特定决策时最常考虑的输入数据可视化(例如,将注意力集中在嘴巴上,以确定图像是否对人类进行了描述)。

另一种已经使用了一段时间的技术是广义相加模型(GAMs)的应用。通过使用单特性模型,GAMs限制了特性之间的交互,从而使每个用户更容易地进行解释。使用这些技术来揭开人工智能决策的神秘面纱,有望在很大程度上促进人工智能的应用。

限制4:学习的普遍性

与人类的学习方式不同,人工智能模型很难将它们的经验从一种环境转移到另一种环境。实际上,模型为给定用例实现的任何东西都只适用于该用例。因此,即使用例非常相似,公司也必须反复提交资源来培训另一个模型。

应对这一挑战的一个前景可期的答案是学习迁移。在这种方法中,一个人工智能模型被训练完成一个特定的任务,然后快速地将学习应用到一个相似但不同的活动中。DeepMind的研究人员还在实验中展示了学习迁移的前景,在实验中,模拟训练被转移到真正的机器人手臂上。

随着学习迁移和其他通用方法的成熟,它们可以帮助组织更快地构建新的应用程序,并使现有的应用程序具有更多样化的功能。例如,在创建一个虚拟的个人助理时,学习迁移可以将一个领域(比如音乐)的用户偏好推广到其他领域(书籍)。而且用户并不局限于数字原生用户。例如,学习转移可以使油气生产商扩大其对人工智能算法的使用,训练这些算法为其他设备(如管道和钻井平台)的油井提供预测性维护。学习迁移甚至有可能彻底改变商业智能:试想一个数据分析的人工智能工具,它可以理解如何优化航空公司的收入,然后可以根据天气或当地经济的变化调整其模型。

另一种方法是使用某种近似可应用于多个问题的广义结构的东西。例如,DeepMind的AlphaZero在三种不同的游戏中使用了相同的结构:可以训练出一种在一天内学会国际象棋的具有广义结构的新模型,然后它就可以很好地打败世界冠军的国际象棋程序。

最后,考虑到出现试图自动设计机器学习模型的元学习技术的可能性。例如,谷歌智囊团使用AutoML自动设计神经网络来在大规模数据集中对图像进行分类。这些技术目前表现得和人类的设计不相上下。这是一个很有前途的发展,特别是在许多组织人才依旧短缺的情况下。元学习方法也有可能超越人类的能力,产生更好的结果。然而,重要的是,这些技术还处于早期阶段。

局限性5:数据和算法中的偏差

到目前为止,我们专注于通过在工作中已经应用的技术解决方案可以克服的一些限制,其中一些我们上文已经讲述过。偏差是另一种挑战。当人类的偏好(有意识或无意识)在选择使用哪些数据点和忽视哪些数据点时,会产生潜在的破坏性的社会影响。此外,当数据收集本身的过程和频率在不同的组别观察到的行为不一致时,算法分析数据、学习和预测的方式很容易出现问题。负面影响包括错误的招聘决策、错误的科学或医学预测、扭曲的金融模型和刑事司法决策,以及在法律尺度上的不当使用(虚拟)手指。在许多情况下,这些偏见在“高级数据科学”、“专有数据和算法”或“客观分析”的面纱下被忽视或忽略。

当我们在新的领域部署机器学习和人工智能算法时,可能会有更多的实例将这些潜在偏差问题纳入数据集和算法中。这种偏差一般根深蒂固,因为识别它们并采取措施解决它们需要深入掌握数据科学技术,以及对现有社会力量(包括数据收集)的更深的元认识。总而言之,去偏差被证明是迄今为止最令人畏惧的障碍之一,当然也是最让社会担忧的障碍之一。

目前正在进行多项研究工作,同时也在努力进行最佳实践,以促进学术、非营利和私营部门的研究中解决这些问题。这一切都不会进展太快,因为挑战很可能会变得十分严峻,会出现更多的问题。举例来说,考虑到许多基于学习和统计的预测方法都隐含地假设未来会像过去一样。在社会文化背景下,我们正在努力促进变革,而根据过去的行为做出决定会阻碍进步(或者更糟糕的是,建立在抵制变革的基础上),这时我们又应该做些什么呢?。许多领导人,包括商界领袖,可能很快会要求就有关问题给出他们的回答。

击中移动目标

要解决我们所描述的局限性以及在商业上广泛实施本文所描述的许多先进技术,可能还需要数年时间。但人工智能的应用范围之广令人惊叹,这表明人工智能最大的限制可能是想象力。以下是一些建议,是给那些努力保持领先的领导人的,或者至少不要落得太远。

做好功课,做好校准,跟上步伐。虽然大多数管理人员不需要知道卷积神经网络和递归神经网络的区别,但是您应该对当今工具的功能有一个大致的了解,对哪些方面可能会有短期进展有一个认识,以及对未来的展望。 利用您数据科学和机器学习专家的知识,与一些人工智能先驱者交谈以获得校准,并参加一两场人工智能会议来帮助你获得真正的资讯;新闻媒体可能会有所帮助,但它们也可能是炒作机器的一部分。知识渊博的从业者正在进行跟踪研究(如人工智能指数(一项基于斯坦福大学的人工智能百年研究项目)),这是另一种有助于保持先进的方法。

采用复杂的数据策略。人工智能算法需要帮助解开隐藏在系统生成的数据中的有价值的见解。您可以通过开发一个全面的数据策略来提供帮助,该策略不仅关注从不同系统收集数据池所需的技术,还关注数据的可用性和获取、数据标记和数据治理。虽然更新的技术承诺会减少训练人工智能算法所需的数据量,但数据饥渴的监督学习仍然是当今最流行的技术。即使是旨在最小化所需数据量的技术仍然需要一些数据。这其中的一个关键部分就是充分了解你自己的数据点以及如何利用它们。

从侧面思考。学习迁移技术仍处于起步阶段,但有办法在多个领域利用人工智能解决方案。如果您解决了大型仓库设备的预测性维护这样的问题,您是否也可以将相同的解决方案应用于消费产品?一个有效的下一个产品到购买的解决方案是否可以在多个分销渠道中使用?鼓励业务单位分享知识,这些知识可能会揭示如何在公司的多个领域使用你最好的人工智能解决方案。

做一个开拓者。与当今的人工智能技术和用例保持同步并不足以长期保持竞争力。让您的数据科学员工或合作伙伴与外部专家合作,使用新生的技术(如本文中讨论的技术)来解决影响巨大的用例问题,这些问题有望实现突破。此外,要了解什么是可能的,什么是可用的。许多用于标准应用程序(包括语音、视觉和情感检测)的机器学习工具、数据集和训练过的模型正在广泛使用。有时它们是开源的,而在其他情况下则是通过由先驱研究人员和公司创建的应用程序编程接口(APIs)来实现的。密切关注这些可能性可以增加你成为先行者或先行者优势的几率。

人工智能的前景是巨大的,实现这一愿景所需的技术、工具和过程还没有完全实现。如果你认为你可以促进技术发展,然后成为一个成功的领先追随者,那就再想想吧。要从立竿见影的角度进行跨越是非常困难的,尤其是当目标变化得如此之快,而你又不明白人工智能工具现在能做什么、不能做什么时。随着研究人员和人工智能先驱们准备解决当今最棘手的一些问题,现在是时候开始了解人工智能前沿领域正在发生的事情了,这样您就可以定位您的组织来学习、开发,甚至可能推进新的可能性。

看好AI的发展,但是突破可能不在软件上,AI真正的突破还是在硬件上,芯片,芯片,芯片,重要的事情说三遍,我们的各种芯片已经足够复杂了,但是现在的芯片是按一定的规则进行设计的,很可能这些规则阻碍了AI的自我崛起,解放这些规则,芯片发生革命性的变化,软件才能有革命性的产生,AI在这个基础上可以加速进化了,但是进化后的AI,和人类有什么相干吗?人类追求进步是为了人类的什么福祉?AI的进化追求的又是AI的的福祉呢还是人类的福祉?

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论