一场新的战争以DeepSeek之名在应用领域悄然打响,发起者正是此前显得安静的腾讯。腾讯元宝正在借着“DeepSeek”大量投流,现在你可以在多个平台看到这些打着“满血版DeepSeek”,“最佳DeepSeek体验”旗号的元宝广告,包括但不限于微信、B站、知乎。
DeepSeek作为人工智能领域的新兴力量,其快速崛起引发了对AI创新未来、开源主导地位和传统AI商业模式可持续性的讨论。文章探讨了DeepSeek的成功因素,包括其高效的模型设计、创新的训练方法以及开源策略,分析了其对AI行业格局的潜在影响,并探讨了现有AI公司如何应对这一不断变化的局面。
但DeepSeek R1的横空出世,改写了这一认知,约束条件反而可以推动创新,没有大算力,还可以优化算法。所以现在科技圈普遍出现了一种声音:一个开源、高性能、低部署推理成本的大模型也能带来整个AI产业生态的繁荣,是大家抓紧上车的门票。
按照豆包的“养成计划表”,7000多万的月活还只是开始,今年MAU的目标是2-3亿,冲刺去年底ChatGPT的水平。美好的计划被跑出来的“黑马”所打破,伴随着高涨的科技情绪,DeepSeek短暂地成为了春节期间的“国民App”。
太多人关注开源与不开源的表象,大模型本质还是要解决问题、创造价值,以及用更高性价比的解决方案在实践中落地,在大模型进入应用爆发期之际,百度选择“免费+开源”的路线,反而让百度AI的核心价值更清晰了。
就在Grok3发布的当天,DeepSeek团队也发表了一篇论文(https://arxiv.org/pdf/2502.11089),介绍了一种新的稀疏注意力机制(Natively Sparse Attention,NSA),用于提升长文本训练和推理的效率,并具备硬件对齐和端到端训练的特性。