本文来自微信公众号“半导体行业观察”,编译自semiengineering。
OpenAI、Anthropic和xAI的首席执行官有着惊人相似的愿景——人工智能的进步是指数级的,它将改变人类,其影响将超出大多数人的预期。
这不仅仅是猜测。人工智能的市场及其价值如今已是真实存在的:
1、使用GitHub CoPilot的人类开发人员借助AI可将编码速度提高55%。
2、GPT-4在LSAT考试中的得分为88%,而普通人的得分为50%。
3我个人正在使用ChatGPT进行西班牙语会话练习和语法练习
2025年,OpenAI的大模型收入将达到约100亿美元,Anthropic的大模型收入将达到20亿至40亿美元。
四年前,GPT-2提供的是学龄前儿童的智力。GPT-4就像一个聪明的高中生。
到2028年左右,大模型(LLM)将提供博士级别的智力。到2030年代,法学硕士的智商将超越人类。
人工智能的经济效益也在不断提升。特定模型的成本每年下降4倍(Anthropic)到10倍(OpenAI)。这是计算能力和算法改进的共同作用。这意味着到2030年,当今模型的运行成本将降至千分之一到十万分之一。
有五家以上的公司有能力和资本做到这一点,其中包括亚马逊、谷歌、微软等巨头。像OpenAI和Anthropic这样的初创公司,目前的市值都在1000亿美元左右,如果它们能够实现目标,市值将达到1万亿美元。大模型项目获胜者将成为首家市值10万亿美元的公司。
它们的成功将给半导体、封装、数据中心、冷却和电力领域的增长和产能带来巨大压力。到2030年,半导体收入将主要来自人工智能/高性能计算。
GPU vs ASIC?是的:超大规模企业需要更多选择
如今,数据中心AI加速器90%以上都是NVIDIA GPU,还有一些AMD GPU,其余的是定制ASIC(主要是亚马逊)。
NVIDIA是唯一一家提供全套解决方案的厂商——涵盖GPU、NVlink网络、机架、系统和软件。在NVIDIA这一领域,想要匹敌甚至击败NVIDIA非常困难。该公司的年营收高达1600亿美元。
NVIDIA有3或4个客户购买其超过10%的产量,每家客户每年的购买量接近200亿美元。
但AMD的GPU路线图正在追赶NVIDIA。其M350将在2025年下半年与Blackwell架构相匹配。其M400将与NVIDIA预计的Rubin架构(Blackwell的继任者)相匹配。AMD在软件和互连/系统方面也在迎头赶上,希望到2026年实现年收入100亿美元。
即使AMD不如NVIDIA,大型超大规模计算厂商也有望为其提供业务。他们希望找到NVIDIA的强大替代方案,而这种替代方案能够为超大规模计算厂商提供一些定价优势,并且在NVIDIA供应受限的情况下,能够更快地提升其数据中心的产能。
那么用于AI加速器的ASIC呢?就在几年前,ASIC在投资者眼中还是个贬义词——低利润、低增长。现在,它却火了,因为超大规模企业想要更多选择。
亚马逊、谷歌、Meta和OpenAI都在开发自己的AI加速器。当然,还有其他公司也在积极布局。例如,博通的AI收入在三年内飙升了约10倍,约占总销售额的一半。同样,Marvell的AI收入也在同一时期飙升,目前AI已成为其最大的业务部门。
在三月初的摩根士丹利技术大会上,Open AI首席执行官Sam Altman表示,如果放弃GPU的部分灵活性,特定模型的ASIC可以非常高效。别忘了,网络过去使用x86处理器。现在则全部使用交换芯片,因为需要处理的数据包类型变化缓慢。
市场正在从以训练为主转向以推理为主。仅用于推理的ASIC可以简单得多。关键在于成本和功耗。而仅限于例如Transformer模型的推理ASIC则可以更简单、更便宜。Alchip的首席执行官表示,ASIC的性价比比GPU高40%,并且可以针对客户的特定软件进行优化。
如今的AI加速器通常配备3纳米或2纳米计算引擎,在“更老”、更便宜的节点上,或许还会配备独立的5纳米SRAM和PHY芯片。Alchip首席执行官表示,AI加速器的NRE成本高达5000万美元。博通/Marvell可能正在开发更复杂的加速器,采用更多芯片组和3D封装,开发成本超过1亿美元。超大规模计算厂商将拥有超过100人的架构团队;超过100人负责网络连接,还有更多人负责软件开发。这意味着总成本将在三分之一到五亿美元之间。他们能负担得起吗?
如果一家超大规模厂商每年采购200亿美元,由于有其他选择,可以从NVIDIA获得10%的折扣,那么它就有能力自主研发ASIC。如果一家超大规模厂商成功打造出一款成本仅为NVIDIA GPU一半、功耗更低的ASIC,那么它就取得了巨大的成功。Alchip的首席执行官表示,这款ASIC的价格可能比GPU便宜40%左右。
超大规模数据中心运营商可能会部署NVIDIA和AMD的GPU来处理最复杂、变化最快的工作负载,以及外部客户,而内部变化较慢的工作负载则会使用自家的ASIC。GPU和ASIC的最终组合将取决于相对性能、功耗和可用性。可能是90%GPU和10%ASIC。或者,正如麦肯锡预测的那样,可能是10%GPU和90%ASIC。每年仅花费10亿美元的小型客户将不得不使用GPU。
参考链接
https://semiengineering.com/gpu-or-asic-for-llm-scale-up/