但DeepSeek R1的横空出世,改写了这一认知,约束条件反而可以推动创新,没有大算力,还可以优化算法。所以现在科技圈普遍出现了一种声音:一个开源、高性能、低部署推理成本的大模型也能带来整个AI产业生态的繁荣,是大家抓紧上车的门票。
按照豆包的“养成计划表”,7000多万的月活还只是开始,今年MAU的目标是2-3亿,冲刺去年底ChatGPT的水平。美好的计划被跑出来的“黑马”所打破,伴随着高涨的科技情绪,DeepSeek短暂地成为了春节期间的“国民App”。
太多人关注开源与不开源的表象,大模型本质还是要解决问题、创造价值,以及用更高性价比的解决方案在实践中落地,在大模型进入应用爆发期之际,百度选择“免费+开源”的路线,反而让百度AI的核心价值更清晰了。
就在Grok3发布的当天,DeepSeek团队也发表了一篇论文(https://arxiv.org/pdf/2502.11089),介绍了一种新的稀疏注意力机制(Natively Sparse Attention,NSA),用于提升长文本训练和推理的效率,并具备硬件对齐和端到端训练的特性。
不过,随着DeepSeek的“上车”,一些业内人士尤其是对营销敏感的相关人士,对此也提出了质疑:一个根本没有为车机做适应性的开发的大模型,被拿来当吹牛的噱头,有点过了,车机那点算力能运转的起来?
随着人工智能技术的飞速发展,基于大型语言模型(LLM)构建的应用系统正逐步渗透到各行各业。