AI又火了,这一次云厂商能赚到钱吗?

脑极体
芯片水涨船高的当下,云厂商的成本压力是很高的,就连微软都限制了New bing的问答条数,可见“地主家”也扛不住放开了造啊。

360截图16251112669372.png

图片来源@视觉中国

本文来自钛媒体,文|脑极体。

由ChatGPT带来的AI热潮还在不断涌现并升温,我们又将进入一个“AI之夏”,到底谁能赚到第一桶金呢?最近,美国著名投资机构A16Z在一篇题为《Who Owns the Generative AI Platform?(谁能赢得生成式AI平台)》的文章里,给出的结论之一:

基础设施提供商是迄今为止这个市场上的最大赢家!

AI基础设施少不了云计算,开年以来,云市场风云迭起。

ChatGPT、GPT-4、文心一言、BARD等生成式AI大模型,背后都有着微软云Azure、百度智能云、谷歌云Google Cloud的算力支持,而新品发布后,紧接着的战略动作,就是将生成式AI集成到了自家的云服务中。

微软将Azure的企业级功能与OpenAI的生成式AI模型功能相结合,发布了Azure OpenAI服务;百度在三月的两场重磅发布会,一是文心一言的发布,另一个就是百度智能云面向企业的沟通会。

其他有AI大模型能力的云厂商,也并没有干看着,要么公开表示正在研发,比如谷歌云,要么暗地里用功,虽然还没有类似产品亮相,但也绝没有放话说自己肯定不做,比如腾讯云、阿里云、华为云等,都有在释放信号,表示自己有AI大模型方面的积累和能力。

至此,我们可以得出结论:AI正在改写云市场的竞争格局。

但是,有了AI,云厂商就能赚到钱吗?答案是,不。

AI与云服务之间究竟有怎样的关系?AI云服务化,到底是不是一种好的商业模式?为什么云厂商都希望靠AI来“逆天改命”?我们从三层逻辑,来重新理解云与AI的关系。

第一层逻辑:AI计算与云基础设施

提到AI对云市场的改变,很多人脑海里浮现出的第一个反映就是:AI需要使用算力,而云可以提供算力,AIGC火了,云厂商这不就赚到钱了吗?

前半句合理,后半句未必。

通过向AI用户出售计算资源来盈利,按照使用量计费,这种商业模式是公有云的传统服务模式:IaaS(Infrastructure-as-a-Service)基础设施即服务。

云厂商作为IaaS服务商,那可真是一部血泪史。作为IT基础设施替代方案的公有云,属于重资产行业,建设维护成本高,前期投入大,又容易打价格战,而且很难涨价溢价,云巨头亚马逊AWS,运营了整整10年才实现盈利。

这一波AI热潮到来之后,看似计算资源的需求增加了,但也没法为IaaS服务“逆天改命”。

几个原因:

1.AI芯片昂贵,前期投入成本很高。

当下AIGC正火,适用于AI训练推理的显卡GPU被哄抢、抬价,英伟达GPU供不应求,国产芯片在性能上还达不到100%同等水平,有消息称,此前A100芯片的单价是五六万,现在已经卖到了八九万。

芯片水涨船高的当下,云厂商的成本压力是很高的,就连微软都限制了New bing的问答条数,可见“地主家”也扛不住放开了造啊。

2.AI训用分离,云使用量增长有限。

传统公有云IaaS服务是按照使用的资源收费的,用云量越大,收入就越高。可惜的是,AI模型带来的新增云使用量,是比较有限的。

你可能会问了,不是说训练一个万亿参数的AI大模型要消耗几十万芯片的算力吗?这计算需求量明明很大啊?

问题来了,基础模型的训练,确实很耗算力,但很多是离线计算的,就是东部企业的大模型可以放到西部数据中心训好了,到了真正使用的时候,生成一张图片、一段文字,云端计算量不算大,所需要的云资源并不多,云厂商要靠AIGC回本遥遥无期。

3.模型落地,成本回收周期很长。

AI大模型要落地应用,一定会“变小”。此前就有报道,有高校以更小的参数规模,达到与ChatGPT同样的效果。所以,一个AI大模型未来落地所需要的计算成本,也会出现十倍以上的降低,这又会延长云厂商的成本回收周期。

而且,AI训练一般会“独占”物理机,如果用户购买了足够多的计算资源,后续的需求不会再增加很多。有AI服务器厂商透露,去年很多头部客户做了AI资源的储备,今年的采购需求已经萎缩了。

可以看到,如果想靠公有云IaaS服务作为商业模式,赚钱真的很难。所以,云厂商要吃到AI的红利,不再过传统云的苦日子,必须想别的招。

第二层逻辑:AI应用与SaaS云服务

我们想到的,云厂商当然也想到了。所以这波AI热潮里,大家会发现微软、百度在集体做一件事——企业服务。

微软先人一步,上线了Azure OpenAI服务,让Azure全球版企业客户可以在云平台上,直接调用OpenAI模型,包括GPT-4、Codex和DALL.E。文心一言刚上线,也通过百度智能云平台邀测企业用户。

在此前的文章中,我们也曾指出过,AI大模型的商业化还是要从toB市场打开突破口。不是我们多么有先见之明,而是因为SaaS化,已经成为云厂商盈利的重要选项。

通过SaaS(软件即服务),将AI软件与应用,以云服务的方式提供给企业,能够为云厂商带来更大的商业利益。为什么企业愿意通过SaaS来获取AI能力呢?

第一,便宜。通过SaaS来使用软件应用,不需要企业自己花钱去开发,也不需要从传统集成商那里采购一大堆软硬件,按需按量地消费,极大地降低了企业的试错成本。

第二,灵活。传统按license方式售卖的软件,交付后的更新迭代很难保障,而SaaS的商业模式通常是基于订阅计费,能够倒逼软件服务商更好地研发产品、维护和更新服务,提升了产品交付的稳定性。

第三,丰富。通过云可以方便地选择丰富的SaaS产品,将更多AI工具嵌入到工作流程中去。

对于云厂商来说,AI的SaaS化,带来的好处也很多:

首先,云服务更好卖了。AI技术已经成为产业数字化、智能化的核心支撑,生成式AI在金融、设计、建筑、工业、政务、教育等领域都已经显示出了非常大的应用潜力,拥有AI能力的云厂商会更容易吸引这些客户。

其次,云服务能打包卖了。这些传统行业要通过云来购买AI能力,当然不会只想购买几台AI服务器的计算资源,而是希望直接调用AI来解决业务问题,要求云厂商提供硬件、软件、服务等一揽子解决方案,这个价格弹性,可比IaaS服务单纯售卖资源高多了。

还有就是,云服务能卖给政企了。大型政企通过混合云、专有云等方式来部署定制化AI,也是云厂商的AI大模型完成商业价值转化的路径之一。

OpenAI创始人Samuel Altman曾表示,“未来每个人如果想赚钱,就打开ChatGPT,输入4个字:我要赚钱,你就不用管别的东西了,会有人去帮你做这个事情”。

对于云厂商来说,想要赚钱,抓住这波AI的SaaS化趋势,在理论上是可以实现的。

第三层逻辑:AI实力与云实力

那么,是不是有了AI,就一定能在市场竞争中胜出?现在还没有推出大语言模型的云厂商,是不是就要落后了?

当然不是。

AI的新一轮技术竞赛刚刚开始,我们得到的消息是,国内有实力打造AI大模型的云厂商都在憋着劲儿研发呢,高校、政府、金融等,肯定会用国产LLM。所以,今年大家有机会“审判”很多类似AI产品。

届时,我们可能会发现,AI要改变云市场的游戏规则,还要跨越几道坎:

一是政企项目的投入产出比。AItoB类的项目其实很不好做,非常考验云厂商对某个垂直领域和细分业务场景的深入理解,要在业务流程里把AI和大模型用好,很多时候要算法工程师、产品经理、测试、运营在甲方那里一待几个月,天天下一线,和行业专家探讨磨合,这个成本是非常高的,所以很多我们看到的上云数字化项目,都是案例形式,短期内无法规模化复制。AI到底要怎么用好,如何大规模推广,是云厂商接下来必须要回答的问题。

二是与传统软件业态的博弈。我们都知道通过SaaS来引入AI软件很好,但如果传统的软件服务商就希望以License模式来售卖,不希望通过云平台来托管呢?云服务的交付模式,相当于要让传统的企业软件服务商、集成商、开发者,改变自己的商业模式。比如按月付费的订阅制,相比一次性的license购买消费,就会直接影响到公司的营收,他们是否愿意做这样的改变,需要云厂商拿出合理的分利机制,才能让他们更愿意开发AI云应用。

三是AI上云的挑战。假设AI应用开发者和软件商都愿意进行云托管,依然会面临一个问题,如何以云的方式来提供服务?

举个例子,很多开发者或软件企业开发完AI产品之后,要进行不同终端设备的触达,设备的兼容性、不同操作系统的分发体验、屏幕的自适应能不能做好,是非常考验云厂商的技术能力的。如果一些算力有限的终端设备用不了那个AI应用,覆盖的用户群体少了,相当于开发者的商业收入就会减少。

再比如,开发者利用云平台的AI基础模型,训练出了更小更垂直的AI应用,要怎么部署到云平台、怎么推广、怎么获益,需要一套从底层环境到应用分发的全流程的开发工具和生态支持。

显然,要靠AI建立云市场的竞争优势,厂商们还有很多功课要做。

通过这三层逻辑,我们可以理解,云厂商靠AI赚钱的思路究竟是怎样的。

现实来看,AI技术对云市场的影响并不是短期内就可以看到的,云厂商要盈利还得“望AI止渴”一段时间。

但是,随着AI在云市场中的地位越来越高,AI+云成为数字化的必要条件,云市场的商业模式和产业格局也一定会“风光又一新”。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论