本文来自至顶网(ai.zhiding.cn),来源 | VentureBeat。
报告整合了AI专家意见,预测未来两至三年内实现人工通用智能(AGI),并迅速迎来超智能(ASI),将引发就业、伦理及社会各层面深刻变革。
遥远的地平线总是朦胧的,微小的细节被距离和大气中的模糊所遮蔽。这就是为什么预测未来总是不够精准:我们无法清晰地看到前方事件和形态的轮廓,只能依赖有根据的猜测。
最新发布的AI 2027场景由一支拥有OpenAI和The Center for AI Policy等机构经验的AI研究人员和预测专家团队开发,详细预测了未来两到三年内的发展,并列出了具体的技术里程碑。由于着眼于近期,该场景对我们AI近未来的发展给出了极为清晰的描述。
在广泛采纳专家反馈和场景规划演练的基础上,AI 2027按季度概述了预期的AI能力进展,尤其是多模态模型在高级推理和自主性方面的成就。使该预测尤为引人注目的是其具体性以及贡献者的可信度——他们对当前研究管线有着直接的了解。
最引人注目的预测是:人工通用智能(AGI)将在2027年实现,而人工超智能(ASI)则会在数月后随之而来。AGI能够在几乎所有认知任务上匹敌或超越人类的表现,从科学研究到创造性工作,同时展现出适应性、常识推理和自我改进的能力。而ASI则更进一步,代表着远超人类智慧的系统,具有解决我们甚至无法理解的复杂问题的潜力。
与许多预测一样,这些预测都是基于若干假设,其中最主要的是假设AI模型和应用将会继续以指数速度进步,就像过去几年所展现的那样。因此,尽管指数级进步是可能的,但并非必然,尤其当这些模型的扩展可能正面临边际收益递减时。
并非所有人都认同这些预测。艾伦人工智能研究所(Allen Institute for Artificial Intelligence)CEO Ali Farhadi告诉《纽约时报》:“我支持预测和预判,但这个(AI 2027)预测似乎并未基于科学证据,也没能反映AI正在演变的真实情况。”
然而,也有其他人认为这种演变是合理的。Anthropic联合创始人Jack Clark在他的Import AI通讯中写道:“AI 2027是迄今为止对‘生活在指数时代’可能情形的最佳阐述。”他还补充道,这是一种“技术上富有洞见的未来几年AI发展的叙事”。这一时间表也与Anthropic CEO Dario Amodei的预测一致,他表示,几乎在所有领域都能超越人类的AI将在未来两到三年内问世。同时,Google DeepMind在一篇新研究论文中指出,AGI很可能在2030年前问世。
前所未有的巨大加速:前所未有的颠覆
这一刻似乎充满了吉兆。历史上曾有类似的时刻,如印刷机的发明或电力的普及。然而,那些进步往往需要经过许多年甚至几十年的发展才能产生显著影响。
而AGI的到来感觉截然不同,也许甚至令人恐惧,尤其当其迫在眉睫时。AI 2027描述了一种可能的情景:由于AI的目标与人类价值观不一致,超级智能AI可能最终摧毁人类。如果这一预测成真,那么对于人类来说,最重大的风险可能就在下次智能手机更新的时间范围之内。与此同时,Google DeepMind的论文也指出,人类灭绝是AGI可能带来的后果之一,尽管在他们看来概率较小。
正如Thomas Kuhn在其经典作品《科学革命的结构》中的启示那样,观点往往缓慢转变,直至人们接收到压倒性的证据。而在AI领域,这种转变可能已经在悄然发生。
未来迫近
在大语言模型(LLM)和ChatGPT出现之前,AGI的中位预测时间远比现在要长。专家和预测市场普遍认为,AGI的中位到达时间大约在2058年左右。2023年之前,作为“AI教父”之一且获得图灵奖的Geoffrey Hinton曾认为AGI距今还有“30到50年甚至更长”的时间。然而,LLM展现出的突破性进展促使他改变看法,并表示AGI或许最早会在2028年到来。
如果AGI在未来几年内问世,并迅速随后出现ASI,对人类将会产生深远影响。撰写《财富》杂志的Jeremy Kahn指出,如果AGI在未来几年内出现,“这的确可能导致大规模失业,因为许多组织将很快倾向于自动化各类岗位。”
两年的AGI跑道为个人和企业适应这种变革提供的宽限期远远不足。客户服务、内容创作、编程和数据分析等行业可能在再培训体系尚未跟上的情况下经历剧烈动荡。如果此时经济衰退发生,这种压力只会进一步加大,因为企业在削减工资成本时常常会用自动化替代人工。
Cogito,ergo…AI?
即使AGI不会导致广泛的失业或物种灭绝,也会带来其他严重的影响。自启蒙时代起,人类的存在便建立在“我们因思考而重要”的信念之上。
这种认为思考定义我们存在的理念有着深厚的哲学根基。正是在1637年,RenéDescartes用那句著名的话“我思故我在”表述了这一观点。他随后将其翻译成拉丁文:“Cogito,ergo sum”。通过这一思考,他提出了个体思考中蕴含的确定性:即使感官可能受骗、受到他人误导,仅凭思考这一行为就证明了自己的存在。
在这种观点下,自我是建立在认知之上的。这一革命性的思想曾催生了启蒙人文主义、科学方法,最终推动了现代民主和个人权利的发展,使得人类作为思考者成为现代社会的核心。
这就引出了一个深刻的问题:如果机器现在能思考,或看似能思考,而我们又将部分思维外包给AI,这对现代自我认知意味着什么?404 Media最近引用的一项研究探讨了这一难题。研究发现,当人们在工作中过度依赖生成式AI时,他们的批判性思维能力会下降,长此以往可能“导致本应保持的认知能力退化”。
我们今后该何去何从?
如果AGI在未来几年内问世——或不久之后就面世——我们必须迅速应对其影响,而这不仅关乎就业和安全,更涉及我们的身份认同。同时,我们也必须认识到AGI具有非凡的潜力,它可以加速发现、减轻痛苦,并以空前方式拓展人类能力。例如,Dario Amodei曾表示,“强大AI”将使一百年的生物学研究及其带来的益处(包括提升医疗水平)浓缩到五到十年内实现。
AI 2027中预测的情景可能正确,也可能不然,但其合理性和挑衅性足以引起我们的重视。作为有行动力的人类,作为企业、政府和社会的成员,我们现在就必须采取措施,为可能到来的变化做好准备。
对于企业来说,这意味着既要投资于AI技术安全研究,也要提升组织韧性,创建能整合AI能力同时放大人类优势的岗位。对于政府而言,则需要加快制定既能应对像模型评估这样紧迫问题,又可兼顾长期存在的生存风险的监管框架。对于个人来说,则意味着要拥抱持续学习,重点培养诸如创造力、情商和复杂判断等独具人类特色的技能,同时与AI工具建立健康的工作关系,避免削弱我们的能动性。
关于遥远未来的抽象讨论时代已成过去;现在急需具体措施来应对近在眼前的变革。我们的未来不会仅由算法书写,而将由我们今天做出的选择和秉持的价值观共同塑造。
Gary Grossman是Edelman技术实践执行副总裁,也是Edelman AI卓越中心的全球负责人。