从数学悖论中折射出的AI极限

科技体
深度学习是一种用于模式识别的人工智能技术,这是一种正全面进入科学计算领域的成功技术。我们常在许多令人瞩目的新闻标题中看到它的身影,比如说它能够比医生更准确地诊断疾病,又比如说它能通过自动驾驶预防交通事故等等。然而,许多深度学习系统是不值得信任的,它们很容易被愚弄。

人工智能的致命弱点

深度学习是一种用于模式识别的人工智能技术,这是一种正全面进入科学计算领域的成功技术。我们常在许多令人瞩目的新闻标题中看到它的身影,比如说它能够比医生更准确地诊断疾病,又比如说它能通过自动驾驶预防交通事故等等。然而,许多深度学习系统是不值得信任的,它们很容易被愚弄。

这使得人工智能系统就像一些过度自信的人类一样,常常具有远超其实际能力的自信。而人类还比较善于发现自己的错误,但许多人工智能根本无法知道自己在什么时候犯了错。对人工智能系统来说,有时意识到自己犯了错甚至比产生一个正确的结果还要困难。

这种不稳定性是现代人工智能的致命弱点,也是一个悖论。这个悖论可以追溯到20世纪的两位数学巨匠——图灵(Alan Turing)和哥德尔(Kurt Gdel)。20世纪初,数学家们正试图证明数学是统一科学的终极语言。然而,图灵和哥德尔发现了数学核心的一个悖论:某些数学命题的真伪是不可能被证明的,而有些计算问题也无法用算法来解决。

到了20世纪末,数学家斯蒂芬·斯梅尔(Steve Smale)提出了18个当时未解数学问题的清单,其中的最后一问所探讨的就是人类和机器的智能极限。这个问题至今没有得到解决,不过它将图灵和哥德尔最先提出的悖论带入了人工智能的世界:数学存在固有的基本极限,类似地,人工智能算法也有无法解决的问题。

人工智能的固有极限

一项新的研究表明,人工智能普遍存在固有的极限,而这种极限可归结于这个长达世纪之久的数学悖论。研究人员通过扩展哥德尔和图灵提出的方法,展示了计算神经网络的算法所存在的极限。他们提出了一种分类理论,描述了在特定条件下,可以训练神经网络来提供可信的人工智能系统的情况。

研究结果被发表在了近期的《美国国家科学院院刊》上。新研究指出,稳定、精确的神经网络存在问题,且没有算法可以产生这样的网络。只有在特定的情况下,算法才能计算出稳定、精确的神经网络。

神经网络是人工智能领域最先进的工具,之所以称之为“神经网络”,是因为它是对大脑神经元之间的联系的一种大致模拟。在新研究中,研究人员表示虽然在某些情况下,良好的神经网络可以存在,但由于这种悖论的存在,我们无法创建一个固有可靠的神经网络。换句话说,无论我们用于构建一个神经网络的数据有多么准确,都永远无法获得构建这个神经网络所需的完美信息。

与此同时,无论对多少数据的进行训练,也都不可能计算出良好的现有神经网络。无论一个算法能访问多少数据,它都不会生成所需的网络。这一点与图灵的观点类似:无论计算能力和运行时间如何,都存在无法解决的计算问题。

研究人员表示,并不是所有的人工智能都有固有缺陷。在某些情况下,人工智能犯错误是完全没有问题的,但它需要诚实面对这些问题。然而,这并不是我们在许多系统中所看到的情况。

理解人工智能的基础

当我们尝试一些东西发现它不起作用时,可能会加点其他东西希望它能起作用,然而如果当加到一定程度时仍不能得到想要的,我们就会选择尝试不同的方法。理解不同方法具有各自的极限是很重要的。现在,人工智能正处于其实际成功远远领先其理论和对其理解的阶段,因此我们急需能够理解人工智能计算基础来弥补这一差距。

2345截图20211028093243.png

当20世纪的数学家发现不同的悖论时,他们并没有停止对数学的研究。他们必须找到新的道路,因为他们明白其中的极限。相应地,在人工智能领域,这或许意味着需要改变路径或开发新的路径,从而构建出能以可靠且透明的方式解决问题的,并同时了解它们的极限的系统。

研究人员的下一个阶段是将近似理论、数值分析和计算基础结合起来,来确定哪些神经网络是可以通过算法计算的,以及哪些神经网络是可以变得稳定和可信的。正如哥德尔和图灵提出的关于数学和计算机极限的悖论带来的丰富的基础理论,也许类似的基础理论可能会在人工智能中开花结果。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论