存算一体的核心逻辑很简洁:将计算单元之中,使数据在直接嵌入存储阵列存储位置即可完成计算。这个理念看似简单,却是芯片架构层面的范式级创新。
AI大模型参数规模持续增长,单卡算力与显存的物理上限,正倒逼AI训练集群规模持续扩容。在这场AI算力军备竞赛中,网络性能早已成为决定集群算力释放效率的关键。对于超大参数规模的AI模型而言,更高的网络带宽,能够直接大幅压缩模型训练的完成周期。
在超大规模算力中心的成本结构里,电费在整体TCO 中占比很低,对总成本影响有限。真正的大头,是你根本绕不开的那块GPU。
算力出海其实是“境外数据入关”,是境外数据进入中国进行“加工”之后再出国,还需要相关的政策配合。
光子计算因速度快、能效高,被视为人工智能(AI)算力破局的关键,但其训练过程长期依赖传统数字计算机,难以应对芯片制造带来的个体差异。
大模型时代,GPU站在台前;到了Agentic AI时代,CPU的重要性正在重新上升。而比CPU更值得重新估值的,可能是CPU背后的那套架构。