产业丨HBM4争夺战正式开启

方文三
GPT-4模型有1.76万亿级的参数量,而传统计算机架构依赖于处理器和内存的相互配合,要想支撑如此庞大的数据处理与传输,半导体存储器技术需要迎来新的变革。

本文来自微信公众号“AI芯天下”,作者/方文三。

GPT-4模型有1.76万亿级的参数量,而传统计算机架构依赖于处理器和内存的相互配合,要想支撑如此庞大的数据处理与传输,半导体存储器技术需要迎来新的变革。

人工智能浪潮之下,HBM从幕后走向台前,市场需求持续看涨。

1.png

成为AI服务器标配,趋势和需求已明确

HBM的作用类似于数据的[中转站],就是将使用的每一帧,每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。

HBM促使DRAM从传统2D加速走向立体3D,充分利用空间,契合行业小型化、集成化的发展趋势。

AIGC技术应用呈现爆发式增长,大模型处理数据的吞吐量更是呈指数级增长。

ChatGPT已成为史上最快达到1亿月活跃用户的应用,预计至2025年生成式AI所创造的数据可占到已生产数据的10%。

近期英伟达发布最新一代GH200 Grace Hopper,搭载了全球第一款HBM3e,达到141GB,将不再配备今年春季版本的96GB HBM3。

HBM价值量的显著提升也可以体现出当前对存力需求的迫切。

未来3年的超算算力需求提升将超过10倍,万亿级别的参数量使HBM(高带宽内存)成为AI服务器的标配。

此外,HBM的高带宽相当于把漏斗中间的通道打得更开,让数据可以快速流通,面对AI大模型这种动不动千亿、万亿的参数,服务器中负责计算的GPU几乎必须搭载HBM。

1.png

翻倍增长势态良好,HBM4是未来共同方向

从HBM的发展趋势来看,其芯片密度更大,堆叠层数更多,进而带来容量、带宽以及连接速率翻倍增长的良好态势。

据集邦咨询预测,2023年HBM需求将同比增长58%,2024年可能进一步增长约30%,未来这个市场规模将达到数十亿美元。

2023年主流需求自HBM2e转往HBM3,需求比重分别预估约是50%及39%。

随着使用HBM3的加速芯片陆续放量,2024年市场需求将大幅转往HBM3,而2024年将直接超越HBM2e,比重预估达60%。

全球市场研究机构TrendForce集邦咨询预测,2023年HBM需求量将年增58%,2024年有望再成长约30%。

虽然目前还没有关于HBM4的正式规范,但台积电在2023 OIP论坛阿姆斯特丹厂上给出了部分制定中的标准。

台积电称,未来HBM4内存的接口位宽将实现翻倍,达到2048 bit。

按照计划,这将使HBM4在多种技术层面上实现重大飞跃。

1.png

为数不多的看好,大厂积极推动HBM技术迭代

·SK海力士:今年5月,SK海力士带来第五代HBM 3e,预计今年年底前供应样品,2024年量产,下一代产品HBM4生产时间定在2026年。

该厂商将把下一代后处理技术[混合键合]应用于HBM4产品。

与现有的[非导电膜]工艺相比,它提高了散热效率并减少了布线长度,从而实现了更高的输入/输出密度。

·三星:为了掌握快速成长的HBM市场,将大幅革新新一代产品制程技术,预计2026年量产新一代HBM产品HBM4。

预计2024年接口速度可以提高到7.2Gbps的HBM3p,传输速率再提升10%,从而将总带宽提升到5TB/s以上。

已开发出9.8Gbps的HBM3E,计划开始向客户提供样品。同时,三星正在开发HBM4,目标2025年供货。

并已关注存内计算HBM-PIM,在HBM内存中直接集成计算单元,HBM3-PIM预计在2024年完成开发。

目前正开发针对高温热特性优化的非导电粘合膜(NCF)组装技与混合键合(HCB)等技术,以应用于HBM4产品。

美光最新的HBM3 Gen 2内存正在向客户提供样品,具有1.2 TB/s的聚合带宽和最高容量的8高堆栈24GB容量,采用1β工艺制造。

美光在今年5月宣布,已经开始研发第四代HBM,并且计划在2024年下半年开始量产。

其HBM4可以支持16个存储堆栈,每个堆栈有4096位的接口,数据传输速率可达12Gbps,从而实现3TB/s的总带宽。

1.png

结尾:

尽管各大厂商都在努力扩大HBM的产能,但根据预期的供需情况,供应量的增长速度相对需求的增长略显缓慢。

据相关研究机构的评估,2023年和2024年的HBM供需比分别为-13%和-15%。这表明,在未来近两年的时间里,HBM市场可能仍将处于供不应求的状态。

部分资料参考:鼎晖百孚平台:《HBM:AI时代存储[新贵],国产替代势在必行》,芯世相:《大厂疯抢HBM,但很缺》

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论