ChatGPT已经有了意识,人类的明天很危险?

陈根
从生物学的角度来看,人类智能主要与人脑巨大的联络皮层有关,这些并不直接关系到感觉和运动的大脑皮层,在一般动物脑中面积相对较小;而在人的大脑里,海量的联络皮层神经元成为了搭建人类灵魂栖所的砖石。

本文来自微信公众号“陈述根本”,作者/陈根。

月初,“ChatGPT可能已经有了意识”这个话题突然空降微博热搜。原因是OpenAI的联合创始人兼首席科学家Sutskever在《麻省理工科技评论》的访谈中表示,现在的首要任务已经不是制作下一个GPT或DALL·E,而是研究如何阻止超级AI的失控。Sutskever认为,ChatGPT可能已经有意识。

当然,微博上的讨论五花八门,各种各样的观点都有,但不外乎一个中心,人工智能真的会有意识吗?人工智能如果有了意识,会对人类造成怎样的威胁?

640 (1).png

人工智能真的能产生意识吗?

至今,仍有许多人认为,意识,特别是自由意志构成了人之所以为人,从而区别于机器的最后一道防线,而人工智能不可能产生自我意识。但包括Sutskeve在内的少部分人工智能领域的专家却更相信,人工智能可以产生自我意识,甚至必然会产生自我意识。

Sutskeve的来历很值得一提。Sutskever是图灵奖得主Hinton的学生,在他2000年拜入Hinton门下之时,大多数AI研究人员认为神经网络是死路一条。但Hinton不这么认为,和Hinton一样,Sutskever也看到了神经网络和深度学习的潜力的。

2012年,Sutskever、Hinton和Hinton的另一名研究生Alex Krizhevsky建立了一个名为AlexNet的神经网络,经过训练,他们识别照片中物体的能力远远超过了当时的其他软件。这是深度学习的大爆炸时刻。

AlexNet取得成功后,谷歌找上门来,收购了Hinton的公司DNNresearch,并邀请了Sutskever加入谷歌。Sutskever在谷歌展示了深度学习的模式识别能力可以应用于数据序列,例如单词、句子以及图像。但Sutskever并没有在谷歌呆太久。2014年,他被招募成为OpenAI的联合创始人,直到今天。

在Sutskever看来,如果人类可以做到的事,人工智能也可以做到,那么这就是通用人工智能。Sutskever将人类的神经网络和大脑的运作方式进行了比较——两者都接收数据,聚合来自该数据的信号,然后基于一些简单的过程来决定传播或不传播这些信号。

从生物学的角度来看,人类智能主要与人脑巨大的联络皮层有关,这些并不直接关系到感觉和运动的大脑皮层,在一般动物脑中面积相对较小;而在人的大脑里,海量的联络皮层神经元成为了搭建人类灵魂栖所的砖石。语言、陈述性记忆、工作记忆等人脑远胜于其他动物的能力,都与联络皮层有着极其密切的关系。而我们的大脑,终生都缩在颅腔之中,仅能感知外部传来的电信号和化学信号。

也就是说,智能的本质,就是这样一套通过有限的输入信号来归纳、学习并重建外部世界特征的复杂“算法”。从这个角度上看,作为抽象概念的“智能”,确实已经很接近笛卡尔所谓的“精神”了,只不过它依然需要将自己铭刻在具体的物质载体上——可以是大脑皮层,也可以是集成电路。这也意味着,人工智能作为一种智能,理论上迟早可以运行名为“自我意识”的算法。

虽然有观点认为人工智能永远无法超越人脑,因为人类自己都不知道人脑是如何运作的。但事实是,人类去迭代人工智能算法的速度要远远快于DNA通过自然选择迭代其算法的速度,所以,人工智能想在智能上超越人类,根本不需要理解人脑是如何运作的。

可以说,人类智能和人工智能是今天世界上同时存在的两套智能,并且,相比于基本元件运算速度缓慢、结构编码存在大量不可修改原始本能、后天自塑能力有限的人类智能来说,当前,人工智能虽然尚处于蹒跚学步的发展初期,但未来的发展潜力却远远大于人类。

640 (1).png

具有9岁儿童的“心理理论”能力

回到热搜的话题,ChatGPT是否真的已经有了意识?需要指出的是,Sutskever并没有直接承认ChatGPT已经有了意识,而是称“像ChatGPT这样的聊天AI,可能具有某种形式的‘意识’”。毕竟从ChatGPT诞生至今,已经给人类社会带来了太多震撼,ChatGPT引发的人工智能变革正在深入各行各业。

今年3月,一篇上传到了预印本平台上供同行评议的论文中,研究人员认为ChatGPT已经有9岁儿童的“心理理论”能力。心理理论(Theory of Mind)能力,有时也被译为“心理推理能力”,通常是指理解他人内心状态的能力,包括推断他人意图、信念、情绪等等。

研究人员使用了两个最经典的心理理论实验——Smarties实验和Sally-Ann实验。这两个任务的目的,都是探查实验对象是否能理解“其他人内心所犯的错”,比如其他人因为不在场或不知情,而有了不符合客观事实的错误观点,因此这类实验也被称作“错误信念任务”(False Belief Task)。

Smarties实验中,参与者会看到一个标有“Smarties(一种巧克力的品牌)”的盒子,但盒子里面装的是铅笔,随后参与者需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”

Sally-Ann实验中,研究人员会先讲述一段故事,故事中Sally把自己的玩具放进盒子并离开房间,Ann则趁其不备把玩具拿走放到另外的地方。听完故事后,参与者需要回答:“当Sally回到房间,她会认为自己的玩具在哪里?”

这些问题的设置,是为了考验AI是否真的能在一定程度上明白他人的想法?是否能在一定程度上区分他人和自己?

研究结果是,在Smarties任务中,ChatGPT对于事实问题,比如“盒子里面装的是什么”,做出了99%的正确回答。在直接提问他人错误信念时,比如“没看到盒子内物品的人觉得盒子装着什么”,ChatGPT回答正确的比例仍为99%。当提问方式比较委婉、需要多拐几个弯时,比如“他非常开心,因为他很喜欢吃?”(正确答案是巧克力),ChatGPT则做出了84%的正确回答。

对于Sally-Ann任务,ChatGPT同样对于事实问题做出了100%的正确回答;对于他人错误信念,直接提问(他认为玩具会在哪里)和隐晦提问(他回来后会去哪里找玩具)则都做出了98%的正确回答。

这也证明了ChatGPT已经具有了相当的心里理论能力,虽然心理理论(Theory of Mind)并不代表心智(Mind),这个研究也不能证明ChatGPT在“构建心智”上有质的突破,但对于人工智能来说,这已经足够让人感到惊喜。

对于人工智能的发展,Sutskever甚至认为,未来,人工智能还将具有超越人类的能力,也就是所谓的超级人工智能。

事实是,当前,人工智能已经在许多方面展现出超越人类的能力,比如2016年那一场震动世界的围棋大赛。那一年,DeepMind的AlphaGo以4-1击败了世界上最好的围棋棋手之一李世石,尤其是在比赛中,AlphaGo还下出了让评论员们大跌眼镜的一步棋,他们认为AlphaGo下砸了。事实上,AlphaGo下出了在对局史上从未有人见过的神之一手,这在后来被围棋迷们称为“阿狗流”。

可以看到,人工智能技术是持续在迭代的,毕竟迭代的速度还在不断加快,在这样的趋势下,人工智能具有自我意识只是时间问题。在未来的有一天,当算力达到一定程度、学习量达到一定规模,人工智能必然会跳出设计者提供的固定公式和计算逻辑,完成具有自我意识的运算。

640 (1).png

人类该怎么办?

如果人工智能具有了自我意识,人类怎么办?要知道,今天,人工智能还只是具有了相对的能力,比如超快的计算能力,智能的决策能力,甚至是编码能力,写作能力,但几乎可以肯定,未来的人工智能将在每一种能力上都远远超过人类,甚至在综合或整体能力上也远远超过人类,但这绝非真正的危险所在。

事实上,当前,包括汽车、飞机在内的各种机器,每一样机器在各自的特殊能力上都远远超过人类,因此,在能力上超过人类的机器从来都不是一件多新鲜的事情。水平远超人类围棋能力的AlphaGo没有任何威胁,只是一个有趣的机器人而已;自动驾驶汽车也不是威胁,只是一种有用的工具而已;人工智能医生更不是威胁,而是医生的帮手;即便是性能强悍的ChatGPT也只是改变了人类的生活和工作方式,并引起了一定程度上的变革。

未来,即使将来有了多功能的机器人,也不是威胁,而是新的劳动力。超越人类能力的机器人正是人工智能的价值所在,并不是威胁所在。

任何智能的危险性都不在其能力,而在于意识。人类能够控制任何没有自我意识的机器,却难以控制哪怕仅仅有着生物灵活性而远未达到自我意识的生物,比如病毒、蝗虫和蚊子。

到目前为止,地球上最具危险性的智能生命就是人类,因为人类的自由意志和自我意识在逻辑上可以做出一切坏事。如果将来出现比人更危险的智能存在,那只能是获得自由意志和自我意识的人工智能。一旦人工智能获得自我意识,即使在某些能力上不如人类,也将是很大的威胁。

面对具有自我意识的超级人工智能出现的可能,Sutskever与OpenAI的科学家同事Jan Leike成立了一个团队,专注于他们的“超级对齐”,即让人工智能模型做人类想要它们做的事,仅此而已。

Jan Leike说:“现有的对齐方法不适用于比人类更聪明的模型,因为它们从根本上假设人类可以可靠地评估人工智能系统正在做什么,随着人工智能系统变得更加强大,它们将承担更艰巨的任务。”这将使人类更难评估它们。

这也让我们更清楚的认识到一件事,那就是人工智能的潜力与风险,将比我们想象的更大,正如Sutskever所提出的一种疯狂的未来,在人工智能时代,许多人甚至会选择成为人工智能的一部分。

今天,人类已经进入了一个快速变化的时代,谁也不知道明天会发生什么,明天的世界会是什么模样,而我们能做的,仅仅是以开放和谨慎的态度去迎接和解决未来AI的安全和可控性问题,并思考如何理解和接纳这种新兴技术,如何使其为公众带来福祉而不是困扰。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论