HBM(高带宽内存)作为当前AI加速器GPU的核心配置,凭借垂直堆叠的薄DRAM芯片结构,以超高数据带宽为AI训练与推理提供了关键支撑,成为AI算力爆发的重要基石。
英特尔前CEO帕特·基辛格在近期接受采访时表示,量子计算将在两年内普及并加速戳破AI泡沫,且将在2030年前彻底取代GPU。在他看来,量子计算将与经典计算、AI计算共同构成未来计算世界的“神圣三位一体”。
在此背景下,全球算力产业下一步将往哪走?非GPU路线能有多大市场空间?未来会百花齐放还是一支独大?非GPU赛道哪条路线有望最先冲出重围?我们试图通过拆解全球算力格局及国内几家头部企业的技术路线,找到这些问题的答案。
主要的云服务提供商正在摆脱对英伟达 CUDA 生态系统的依赖,并投资开发自己的芯片用于高容量推理,因为在高容量推理中,运营成本超过了训练成本。
TPU与GPU之间的竞争正在重塑AI硬件市场格局。GPU基于并行处理,能处理多样化任务,而TPU专门针对张量矩阵运算进行优化。谷歌TPU采用类似RISC的设计理念,通过限制功能来提升特定运算效率。
Yole Group 近日发布《2025 年处理器产业状况》报告,指出全球处理器市场正经历由生成式 AI 与云端基础设施推动的深刻变革。
在算力芯片市场,ASIC的“簇拥者”可并不算少。在ASIC芯片大厂、云巨头等助推下,AI算力市场正在迎来新的临界点。
随着这些数据中心的日益普及,其所需的加速计算芯片在当今市场上炙手可热。这些芯片包括先进的CPU、GPU、ASIC以及新兴的人工智能芯片技术。
面对早已布局AI加速的竞争对手,Arm这一动作究竟是姗姗来迟的追赶,还是另辟蹊径的超越?让我们从技术、市场和战略三个维度进行客观分析。
本文通过分享某汽车制造企业 GPU资源池的建设经验,从技术方案、实施步骤到管理运维策略等环节提供指导,助力企业解决算力资源的使用难题,提高效率、降低成本,提升企业在智能化浪潮中的核心竞争力。
本文以数智人(Digital Human)业务场景为例,对GPU模型热交换( Model Hot Swapping)这一有助于企业在性能与成本之间实现平衡的技术进行了架构和工作流程的详细解析。
GPU 最初为加速图形渲染而生,专注于处理计算机图形学中的并行任务 —— 如顶点变换、光照计算、纹理映射等。随着技术演进,其强大的并行计算能力推动其向通用计算领域延伸,形成了GPGPU,广泛应用于科学计算、深度学习训练、视频编解码等场景。