人工智能,为什么需要量子计算?

随着ChatGPT的爆发,人工智能“奇点”临近,作为引领这一轮科技革命以及这一轮产业变革的战略性技术,人工智能被认为是推动经济社会发展的新引擎。

本文来自微信公众号“陈根谈科技”,作者/陈根。

当前,量子计算和人工智能已然成为科技领域炙手可热的话题。

一方面,随着ChatGPT的爆发,人工智能“奇点”临近,作为引领这一轮科技革命以及这一轮产业变革的战略性技术,人工智能被认为是推动经济社会发展的新引擎。

另一方面,量子计算也逐渐成为推动数字社会进步的另一把利器。与当前科学界的一些改良性技术相比,量子计算在算力提升方面具有颠覆性作用,它颠覆的,是目前占据主流地位的电子计算,即传统、主流的计算机还是以电子作为基本的载体。可以说,量子计算本身,就是数字科技的核心内容之一,是推动数字经济时代的核心力量。

在这样的背景下,量子计算和人工智能的结合,更是受到了广泛关注。当人工智能遇见量子计算,当颠覆叠加颠覆,将带领人们走向怎样的未来?

1.png

人工智能需要量子计算

作为人工智能的三要素之一,算力构筑了人工智能的底层逻辑。算力支撑着算法和数据,算力水平决定着数据处理能力的强弱。在AI模型训练和推理运算过程中需要强大的算力支撑。并且,随着训练强度和运算复杂程度的增加,算力精度的要求也在逐渐提高。

2022年,ChatGPT的爆发,也带动了新一轮算力需求的爆发,对现有算力带来了挑战。根据OpenAI披露的相关数据,在算力方面,ChatGPT的训练参数达到了1750亿、训练数据45TB,每天生成45亿字的内容,支撑其算力至少需要上万颗英伟达的GPUA100,单次模型训练成本超过1200万美元。

尽管GPT-4发布后,OpenAI并未公布GPT-4参数规模的具体数字,OpenAI CEO山姆·阿尔特曼还否认了100万亿这一数字,但业内人士猜测,GPT-4的参数规模将达到万亿级别,这意味着,GPT-4训练需要更高效、更强劲的算力来支撑。

尽管以ChatGPT为代表的AI大模型的爆对算力提出了越来越高的要求,但受到物理制程约束,算力的提升却是有限的。

1965年,英特尔联合创始人Gordon Moore预测,集成电路上可容纳的元器件数目每隔18个月至24个月会增加一倍。摩尔定律归纳了信息技术进步的速度,对整个世界意义深远。但经典计算机在以“硅晶体管”为基本器件结构延续摩尔定律的道路上终将受到物理限制。

计算机的发展中晶体管越做越小,中间的阻隔也变得越来越薄。在3纳米时,只有十几个原子阻隔。在微观体系下,电子会发生量子的隧穿效应,不能很精准表示“0”和“1”,这也就是通常说的摩尔定律碰到天花板的原因。尽管当前研究人员也提出了更换材料以增强晶体管内阻隔的设想,但客观的事实是,无论用什么材料,都无法阻止电子隧穿效应。

此外,由于可持续发展和降低能耗的要求,使得通过增加数据中心的数量来解决经典算力不足问题的举措也不现实。

根据国际能源署估计,数据中心的用电量占全球电力消耗的1.5%至2%,大致相当于整个英国经济的用电量。预计到2030年,这一比例将上升到4%。人工智能不仅耗电,还费水。

谷歌发布的2023年环境报告显示,其2022年消耗了56亿加仑(约212亿升)的水,相当于37个高尔夫球场的水。其中,52亿加仑用于公司的数据中心,比2021年增加了20%。

因此,人工智能(AI)想要走向未来,提高算力的同时又能降低能耗是亟待解决的关键问题。在这样的背景下,量子计算成为大幅提高算力的重要突破口。

作为未来算力跨越式发展的重要探索方向,量子计算具备在原理上远超经典计算的强大并行计算潜力。基于量子的叠加特性,量子计算就像是算力领域的“5G”,它带来“快”的同时带来的也绝非速度本身的变化。

在强大的运算能力下,量子计算机有能力迅速完成电子计算机无法完成的计算,量子计算在算力上带来的成长,可能会彻底打破当前AI大模型的算力限制,促进AI的再一次跃升。

1.png

量子计算助力人工智能

从量子计算的角度来看,量子计算机能够以前所未有的速度处理复杂任务,这种速度将颠覆传统计算的概念。

对于人工智能来说,机器学习模型常常面临组合优化问题,这些问题涉及大量变量和复杂运算。在传统计算机上,即使利用先进的AI技术,解决这些问题仍然耗时且难以找到最优解。

但是,将AI与基于量子力学的量子计算机结合时,这些问题可能在瞬间得到解决,因为量子计算机能够识别出传统计算机难以捕捉的数据模式。也就是说,量子计算技术的进步能够进一步增强机器学习的效率,从而实现更高质量的泛化能力,这种量子计算机和机器学习的交汇,也被称为量子人工智能(QAI)。

自Peter Shor发表第一个量子算法(分解大数质因子量子算法)以来,数学家和计算机科学家们就已经开发出其他量子算法来解决经典计算机难以解决的问题。许多量子算法都比目前已知的最有效的经典算法快几个数量级。当然,这些算法只有在它们所处的独特量子环境中才能实现。

实际上,量子计算领域的一些最重要的工作就是创建模拟各种量子系统的算法,这些系统从激光技术到化工医学无所不包。这些量子算法将在很大程度上超过类似的经典计算,而为量子计算机赋予超强的计算能力。

目前,进行分子模拟的经典算法仅限于它可以模拟的分子类型,这些算法通常只限于自旋轨道少于70个的分子,并且,由于且模拟的复杂性增长得非常快,以至于变得越来越难以处理。

相比之下,量子计算机在进行分子模拟时具有巨大的优势。量子计算机中的一个量子比特可以有效地代表一个分子中的一个自旋轨道,而不需要显式地表示所有自旋轨道。因为量子比特可以处于叠加态,一个量子比特能够同时表示多个状态,从而可以在较短的时间内模拟多个自旋轨道的行为。

1.png

因此,即使只有较少的量子比特,例如100个,量子计算机也可以处理经典计算机难以处理的大型分子模拟。这些模拟可能揭示各种以前未知的化合物,并为各种疾病提供新的治疗方法。

量子算法除了为量子计算机的无限潜力,更重要的应用是与人工智能结合,特别是与深度学习相结合。目前,具有代表性的成果包括Google公司在2020年提出的Tensorflow Quantum(TFQ)框架,这是一个用于量子机器学习的软件框架,它允许对混合量子经典机器学习模型进行快速原型设计。

今天,在量子硬件系统发展的同时,量子软件算法也在快速发展,包括诞生了许多有趣的量子软件初创公司,比如Zapata、Riverlane、1Qbit,Quantinuum。而随着量子硬件变得更加强大和量子机器学习算法的完善,量子计算或将在人工智能芯片市场上占据重要份额。

可以想象,当量子算法真正投入人工智能领域使用,商业、行政、医学、工程等领域一些最令人沮丧的、棘手的问题都将迎刃而解。在未来,结合AI和量子计算的力量,我们有望实现更高效的导航系统、更先进的自动化技术、更精确的药物研发、更准确的医疗诊断以及更高效的供应链管理。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论