人工智能到竟被如此愚弄,底是比人类"聪明"还是"傻"?

刀小娱记者
AI的学习方式也需要改变。从某种意义上说,使用强化学习击败计算机游戏的AI已经在人工环境中做到了:通过反复试验,它们以允许的方式操纵屏幕上的像素,直到达到目标为止。但是实际环境比当今大多数DNN训练所依据的模拟或策展数据集要丰富得多。

人工智能犯错

此类事件实际上并未发生,但是破坏AI的潜力是非常现实的。研究人员已经展示了如何通过小心地在贴纸上放置贴纸来使AI系统误读停车标志。他们通过在眼镜或帽子上贴上印刷图案来欺骗人脸识别系统。通过在音频中插入噪声模式,他们欺骗了语音识别系统。

这些只是打破AI中领先的模式识别技术称为深度神经网络(DNN)的一些示例。事实证明,这些方法在正确分类各种输入包括图像,语音和有关消费者偏好的数据方面非常成功。它们是日常生活的一部分。然而,当大家通常难以察觉的微小变化的形式对输入进行更改,可能会混淆周围最好的神经网络。

无法解决的问题

在努力找出问题所在时,研究人员发现了许多DNN为何失败的原因。谷歌的AI工程师标识深度神经网络的基本脆弱性没有根本的解决方法。要克服这些缺陷,研究人员需要通过额外的能力来增强模式匹配DNN:例如,使AI能够自己探索世界,编写自己的代码并保留记忆。一些专家认为,这类系统将是AI研究未来十年后才会发生的事情。

越复杂越危险

2011年,谷歌推出了一种可以识别视频中的猫的系统,不久之后,出现了一系列基于DNN的分类系统。每个人都在说这太神奇了,计算机终于可以理解世界了。但是AI研究人员知道DNN实际上并不了解世界。它们是在大脑结构上的松散建模,是由许多数字神经元组成的多层软件结构。每个神经元都在其上方和下方的各层中相互连接。这个想法是,原始图像输入进入底层的功能例如图像中的像素会触发其中一些神经元,然后根据简单的数学规则将信号传递到上一层的神经元。训练DNN网络涉及到将其暴露于大量示例中,每次调整神经元的连接方式,以便最终顶层可以提供所需的答案-例如始终将狮子的图片解释为狮子。即使DNN之前从未看到过该图片。

问题不仅仅在于图片识别,任何使用DNN来分类输入例如语音的AI都可以被误导。玩游戏的AI可能会遭到破坏。知道DNN的弱点在哪里,甚至可以让黑客接管强大的AI。去年就出现了一个例子,当时谷歌的一个团队表明,有可能使用对抗性例子,不仅可以迫使DNN犯特定的错误,而且还可以对它进行完全重新编程,从而有效地重用了接受过一项任务训练的AI。原则上,可以使用许多神经网络例如那些学习理解语言的神经网络对任何其他计算机程序进行编码。从理论上讲,可以将聊天机器人变成所需的任何程序。

缺陷

DNN具有强大的功能,因为它们的多层结构意味着它们在尝试对输入进行分类时可以选择输入的许多不同特征中的模式。经过训练以识别飞机的AI可能会发现,诸如色块,纹理或背景之类的特征与我们认为重要的事物(如机翼)一样具有很强的预测能力。但这也意味着输入中的很小变化就可以将其转变为AI认为明显不同的状态。

答案之一就是在AI上抛出更多数据。特别是要使AI反复出现问题情况并纠正其错误。在这种“对抗性训练”形式下,一个网络学会识别物体,第二个网络试图改变第一个网络的输入,以免出错。这样,对抗性示例便成为DNN训练数据的一部分。

通过测试DNN在各种对抗性示例中的表现如何,来量化DNN防止出错的鲁棒性。但是,培训网络抵御一种攻击可能会削弱它对其他攻击的能力。伦敦谷歌的DeepMind的研究人员正在尝试训练DNN以免出错。许多对抗性攻击通过对输入的组成部分进行细微调整例如巧妙地更改图像中像素的颜色而起作用,直到这使DNN陷入错误分类为止。健壮的DNN不应因其输入的微小变化而改变其输出,并且该属性可能会在数学上并入网络,从而限制了其学习方式。

从打败到超越

解决此问题的一种尝试是将DNN与符号AI结合起来,这是机器学习之前AI中的主要范例。借助象征性的AI,机器可以使用关于世界如何运作的硬编码规则进行推理,例如其中包含离散的对象,并且它们以各种方式相互关联。一些研究人员,例如纽约大学的心理学家加里·马库斯(Gary Marcus)说,混合AI模型是前进的道路。人工智能需要在可以探索的更丰富的环境中学习。例如,大多数计算机视觉系统无法识别一罐啤酒是圆柱形的,因为它们是在2D图像的数据集上进行训练的。这就是从不同角度呈现熟悉的对象来愚弄DNN的原因。在真实或模拟3D环境中学习将有所帮助。

但是,AI的学习方式也需要改变。从某种意义上说,使用强化学习击败计算机游戏的AI已经在人工环境中做到了:通过反复试验,它们以允许的方式操纵屏幕上的像素,直到达到目标为止。但是实际环境比当今大多数DNN训练所依据的模拟或策展数据集要丰富得多。

即使是最成功的AI系统,例如DeepMind的AlphaZero,其专业领域也非常狭窄。可以训练AlphaZero的算法同时玩围棋和国际象棋,但不能同时玩。重新训练模型的联系和反应,使其能够在国际象棋上取胜,将重置其以前使用Go的经验。如果从人的角度考虑问题,那就太荒谬了。人们不会忘记自己如此轻松地学到的东西。

全自动化

AlphaZero在玩游戏方面的成功不仅取决于有效的强化学习,还在于一种帮助其学习的算法,以缩小选择范围。换句话说,AI被指导如何最好地从其环境中学习。人工智能的重要下一步将是使DNN能够编写自己的此类算法,而不是使用人类提供的代码。用推理能力补充基本模式匹配将使AI更好地处理超出其舒适范围的输入。多年来,计算机科学家一直在研究程序综合,其中计算机可以自动生成代码。将该领域与深度学习相结合可能会导致DNN系统更接近人类使用的抽象心理模型。

例如,在机器人技术方面,位于加利福尼亚州门的脸谱网计算机科学家正在教机器人如何最佳地自己探索新环境。例如,这可能涉及选择在呈现新场景时应朝哪个方向看,以及选择哪种方式操纵对象以最好地理解其形状或目的。这个想法是让AI预测哪个新视点或角度将为其提供最有用的新数据。

未来怎么办

该领域的研究人员表示,他们在解决深度学习的缺陷方面正在取得进展,但也承认他们仍在寻求新技术以减轻过程的负担。深度学习背后没有太多理论。如果某事不起作用,很难找出原因。整个领域仍然非常有经验,更多的只需要尝试一下。

目前,尽管科学家认识到DNN的脆弱性及其对大量数据的依赖,但大多数人都认为该技术将继续存在。近十年来,人们意识到可以训练神经网络以及大量的计算资源,从而很好地识别模式,这仍然是一个最主流的模式,因为现在还没有人知道如何改变从而做的更好。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论