当下的AI服务器,多采用异构形式搭建,也就是在计算系统中,使用多种不同类型的处理器(CPU、GPU、FPGA、NPU等),这样可以增加计算速度和效率,以满足不同工作负载的需求,因为AI工作负载通常需要大量的数值计算和并行运算。
大家有没有发现,AI技术似乎相当集中,科技巨头占尽优势。基于这一现实,许多科技高管纷纷发声预警,他们认为:科技巨头本来已经拥有相当大的权势,到了AI时代权势将会更大。
无论是国内市场上互联网大厂们,对于大模型布局的火热场面,还是远在大洋彼岸的OpenAI,正在上演着的跌宕起伏的「宫斗」剧情,我们都可以非常直观地感受到这一点。
随着Al大模型应用的加速落地和智算中心建设的加速,国内外厂商对算力的需求不断提升,Al服务器的需求量也大幅增加。
随着AI应用的迅速扩张,设计AI芯片的公司也一股脑地冒头。受到垂直市场的刺激,大家都想进入这一创新的芯片体系架构中,但又迫切需求专门针对AI优化的设计解决方案,这也就是专门针对AI芯片设计提供了解决方案的EDA/IP厂商从中获益的缘由。
随着AI热潮带动AI芯片需求,对HBM需求量在2023年与2024年也随之提升,促使原厂也纷纷加大HBM产能,展望2024年,HBM供给情况可望大幅改善。