目前,人们对于生成式模型的关注还主要在于以OpenAI和谷歌为代表的人工智能巨头运行在云端服务器的模型,这些模型需要巨大的算力,并且一般运行在GPU上。
在数字化的风潮中,云计算像巨人一般矗立,其脊梁是无数微小而强大的“细胞”——芯片。这些不起眼的硅片,却支撑起了虚拟化世界的庞大体系。而现今,一场由GPU主导的变革正在悄然兴起,它不仅重塑着数据中心的内部结构,更是在推进整个云计算界的地壳运动。
在新的管制规则下,算力芯片的“国产替代”思路将让位于“国产突破”。这次禁运可能会促进资源向AI芯片的颠覆性技术集中。
ChatGPT意外掀起的一波AI革命,带火了AI芯片市场。而英伟达旗下A100和H100两款AI芯片,正是ChatGPT这样的大语言模型的核心动力。
有数据统计,中国当下10亿参数规模的大模型已经超百个。然而行业蜂拥而上的大模型“炼丹”却面临着高端GPU一卡难求的无解题。算力成本高企,缺算力、缺资金也成为了摆在行业面前最直观的问题。
尽管部署大量GPU是扩展算力的最直接途径,但与此同时传统的互联方案还是创造了巨大的I/O瓶颈,严重影响了GPU的性能利用率,导致更多的时间花在了等待数据而不是处理数据上。