通用CPU和GPU服务平台在功耗和散热受限的终端上的运用,其差异性需求难以应对AI用例严苛且多样化的计算要求。
过去一年,用于AI服务器的GPU一直供不应求,而从未来一年的发展态势来看,相关产品的紧张程度有增无减。
随着chatGPT的爆火和AGI的繁荣,英伟达正在以前所未见的速度发展,这不但造就了GPU的繁荣,同时还让扮演关键角色HBM热度高居不下。
随着AI大模型被纳入云服务的版图,给云厂商带来的商业化营收增长,似乎与大模型技术本身的热度并不匹配,有几个月都停留在“叫好不叫座”的情况,投入不少,产出却不高。
3D图像一直是芯片发展的推动力之一,从上世纪九十年代直到今天,以游戏、电影等为代表的高性能图像渲染应用的蓬勃发展直接让GPU芯片成为了一个新的芯片品类,并且快速发展至今。从这个角度,我们认为高性能3D图像渲染以及3D图像学的发展一直在驱动着GPU芯片品类的发展。
伴随着英伟达AI芯片的热卖,HBM(高带宽内存)成为了时下存储中最为火热的一个领域,不论是三星、海力士还是美光,都投入了大量研发人员与资金,力图走在这条赛道的最前沿。
不仅是国际巨头,中国本土GPU厂商,特别是更具前瞻性的几家创业公司,在发展GPU方面也需要研发更具竞争力的技术和产品,而在当下美国政府推出各种限制政策的大环境下,中国本土GPU芯片技术和生态系统建设可以拓展更多思路,将更多先进的技术和理念融入相关产品。在本土企业客户给出更多采用和试错空间的情况下,中国芯片企业或许可以加快追赶国际先进GPU的步伐。
目前,人们对于生成式模型的关注还主要在于以OpenAI和谷歌为代表的人工智能巨头运行在云端服务器的模型,这些模型需要巨大的算力,并且一般运行在GPU上。
在数字化的风潮中,云计算像巨人一般矗立,其脊梁是无数微小而强大的“细胞”——芯片。这些不起眼的硅片,却支撑起了虚拟化世界的庞大体系。而现今,一场由GPU主导的变革正在悄然兴起,它不仅重塑着数据中心的内部结构,更是在推进整个云计算界的地壳运动。
在新的管制规则下,算力芯片的“国产替代”思路将让位于“国产突破”。这次禁运可能会促进资源向AI芯片的颠覆性技术集中。
ChatGPT意外掀起的一波AI革命,带火了AI芯片市场。而英伟达旗下A100和H100两款AI芯片,正是ChatGPT这样的大语言模型的核心动力。
有数据统计,中国当下10亿参数规模的大模型已经超百个。然而行业蜂拥而上的大模型“炼丹”却面临着高端GPU一卡难求的无解题。算力成本高企,缺算力、缺资金也成为了摆在行业面前最直观的问题。