微软的芯片类似于英伟达图形处理器(GPU),是为训练和运行大语言模型的数据中心服务器设计的,大语言模型是OpenAI的ChatGPT等对话式人工智能功能背后的软件。微软的数据中心服务器目前使用英伟达的GPU,为包括OpenAI和Intuit在内的云客户以及微软生产力应用中的人工智能功能提供支持。
生成式AI越来越流行,尤其是在商业领域。不久前,沃尔玛宣布推出生成式AI应用程序,供5万名非店铺员工使用。App将沃尔玛数据与第三方大语言模型(LLM)结合,可以帮助员工执行多种任务,比如成为创意伙伴,在大文档中提取摘要。
今年以来,随着AI大模型极速获得认可,全球智能化产业迎来了新的发展高峰。全球各大科技厂商纷纷布局大模型,国内更是出现了“百模大战”的盛况。
在传统上,下滑的季度中,季度出货量却出现了大幅增长。OEM和渠道比平常购买了更多的GPU和附加板,这表明旧库存已经消失,需求很高,尽管网络上议论AIB定价过高。
目前,在数据中心,人工智能加速芯片/GPU事实上最主流的供货商就是Nvidia,而通用处理器芯片/CPU的两大供货商就是Intel和AMD,因此比较Nvidia和Intel+AMD在数据中心领域的收入数字就相当于比较GPU和CPU之间的出货规模。
不论当前我们实现多少量子比特的量子计算技术,只要是能落地商用,相对于当前的传统经典物理计算技术而言,都将获得不同程度的算力提升。而实现量子计算与传统云算力融合,这种混合算力模式,并且落地商用,在全球范围内属于领先的应用探索。