这两年,HBM几乎成了整个行业绕不开的关键词。在火热的AI加速器之上,除了居于核心位置的GPU,最吸引目光的,往往是那几颗紧贴其旁的HBM。它们大多通过热压键合堆叠而成,其在DRAM芯片之间布置微米级金属凸块,经由加热与加压完成连接与成型。
据报道,中国半导体企业已占据国内市场的大部分份额,拥有41%的国内AI服务器市场份额,并计划在2025年交付165万块GPU,而总产量为400万块。IDC的数据显示,英伟达仍以55%的市场份额领先,预计出货量为220万块,但这与该公司在制裁前声称的95%的市场份额相比,已大幅下滑。
HBM(高带宽内存)作为当前AI加速器GPU的核心配置,凭借垂直堆叠的薄DRAM芯片结构,以超高数据带宽为AI训练与推理提供了关键支撑,成为AI算力爆发的重要基石。
英特尔前CEO帕特·基辛格在近期接受采访时表示,量子计算将在两年内普及并加速戳破AI泡沫,且将在2030年前彻底取代GPU。在他看来,量子计算将与经典计算、AI计算共同构成未来计算世界的“神圣三位一体”。
在此背景下,全球算力产业下一步将往哪走?非GPU路线能有多大市场空间?未来会百花齐放还是一支独大?非GPU赛道哪条路线有望最先冲出重围?我们试图通过拆解全球算力格局及国内几家头部企业的技术路线,找到这些问题的答案。
主要的云服务提供商正在摆脱对英伟达 CUDA 生态系统的依赖,并投资开发自己的芯片用于高容量推理,因为在高容量推理中,运营成本超过了训练成本。
TPU与GPU之间的竞争正在重塑AI硬件市场格局。GPU基于并行处理,能处理多样化任务,而TPU专门针对张量矩阵运算进行优化。谷歌TPU采用类似RISC的设计理念,通过限制功能来提升特定运算效率。
Yole Group 近日发布《2025 年处理器产业状况》报告,指出全球处理器市场正经历由生成式 AI 与云端基础设施推动的深刻变革。
在算力芯片市场,ASIC的“簇拥者”可并不算少。在ASIC芯片大厂、云巨头等助推下,AI算力市场正在迎来新的临界点。
随着这些数据中心的日益普及,其所需的加速计算芯片在当今市场上炙手可热。这些芯片包括先进的CPU、GPU、ASIC以及新兴的人工智能芯片技术。
面对早已布局AI加速的竞争对手,Arm这一动作究竟是姗姗来迟的追赶,还是另辟蹊径的超越?让我们从技术、市场和战略三个维度进行客观分析。
本文通过分享某汽车制造企业 GPU资源池的建设经验,从技术方案、实施步骤到管理运维策略等环节提供指导,助力企业解决算力资源的使用难题,提高效率、降低成本,提升企业在智能化浪潮中的核心竞争力。