【深度】云计算大厂暗战大模型

大模型风口的水面之下,也有大厂间的暗战。

摄影:匡达

界面新闻记者 | 肖芳 于浩

界面新闻编辑 | 文姝琪

在大模型成为风口之初,头部初创公司Minimax曾举办了一场招标会来采购算力。

阿里云、百度云和字节旗下的火山引擎均在竞标受邀之列,现场出现了互联网行业许久不见的火药味。

各家自有算盘,也对这个客户志在必得:阿里云市场份额还在第一,但已经有下跌之势,保住地位是当务之急;百度云在基础架构服务层的客户积累比较薄弱,想多抢一些份额;火山引擎连市场份额排名的榜单都进不去,想借着大模型客户的机会再往上冲一冲。

三家工作人员在精心制作的PPT里展示自己的技术特点和优势,但Minimax方面参评的技术专家们对此并不感兴趣。价格,是他们最终且唯一关注的要素。

局面最终演变成了竞价会。 

“5折。”

“4.8折。”

“4.5折。”

对于常规客户,各家云计算平台能够给到的价格在6折到5折左右,但此次竞价已经冲破原来的标准——互联网大厂也在降本提效,最近一两年大家已经不愿意以低价换市场份额。但一位参与竞标的架构师把当时的场面形容为“大家奔着不要钱的方向去了”,最后的成交价低至2折。

在竞标之前,这位架构师根本没有意料到如此竞价的场面,底价也没有提前在公司内部沟通。到最后他根本不敢再出价,最终丢了这个标。 

赢家是火山引擎。他们不惜一切代价想要争夺下这家大客户,延续了字节跳动“大力出奇迹”的惯性。

但并不是每一次“大力”都能出奇迹。几个月后,火山引擎又丢掉了这个大客户。

“核心竞争力是什么?” 

无论是阿里云、百度云还是火山引擎,这些大厂的云计算平台,都太需要大模型客户了。

甚至在大模型还没有被打上聚光灯前,Minimax、智谱AI等头部大模型客户已经成为兵家必争之地——这是云计算厂商近几年来为数不多的增量客户。

随着这些大模型公司业务体量的扩张,每天的调用量都在指数级增长。早期他们往往依靠自建的小规模算力平台即可满足需求,但两三年以后,自己的算力肯定是不够用了。 

去年3月,大模型被ChatGPT骤然推上风口。头部初创公司融资屡创记录,投资人和大厂也接连涌入。大模型对外要讲的第一个故事就是大模型能力,训练参数规模是其中重要指标,而算力决定了大模型训练的质量和速度。

拿到足够多的钱之后,大模型公司进入了一个疯狂采购算力的阶段。“是不是存在浪费的情况,根本不是他们关注的重点。”一位数据中心从业者对界面新闻说。 

大模型公司向云计算公司传递焦虑,而云计算平台转而疯狂向英伟达采购用于AI计算的GPU芯片。在目前的形势下,英伟达GPU等同于“算力”,几乎没有替代品,A800是国内能买到最好的芯片。

但英伟达的产能完全跟不上全球大模型公司汹涌而至的AI算力需求。

一位知情人士告诉界面新闻,国内云计算平台中,火山引擎采购量比较大,规模约有几万张计算卡,但英伟达根本无法保证交货时间。据其透露,火山引擎一家去年和英伟达签的订单量已经达到了前年BAT三家的总和,而BAT几家大厂和英伟达的订单已经签到了2024年。

也正是在这个关键时间,因为算力跟不上,火山引擎最终丢掉了靠低价竞标得来的大客户Minimax。

就连更早向英伟达采购GPU芯片的公司也未能如愿。云从科技副总裁张立告诉界面新闻,其在年12月采购的A800芯片按约定在23年4月到货,但因为3月大模型被炒出风口,订单延期三四个月才交付。“就像是挤牙膏一样,每个月供一点。” 

在对A800芯片的争夺中,英伟达处于绝对强势的位置。上述知情人士透露,在和国内各家云计算平台的交付合同中,英伟达不接受不能按时交付需支付违约金的惩罚性条款,能交付多少就交付多少。“如果你坚持想要违约金,那对方一张都不卖了。”

A800买不到,但大模型训练不能停。Minimax只能放弃火山引擎,再次多方寻找算力——但阿里云和百度云也没有抢到这个觊觎已久的客户,因为他们也没有足够多的GPU。

Minimax甚至找到了一家服务器公司,而这家服务器公司又试图通过参与竞标的大厂购买显卡——产业链上下游逻辑被彻底打乱了,无人在意服务器公司根本没有支撑大模型训练的能力,只要你有A800,跟谁买都行。 

“我们的核心竞争力是什么?根本没有核心竞争力。”其中一家大厂的云计算平台销售负责人李武对界面新闻说。

最终,这家优质的大模型客户被拥有足够数量英伟达芯片的腾讯云挖角。 

目睹了Minimax寻找算力全过程的李武告诉界面新闻,腾讯云对外宣称自己的异构计算能力等等优势,但这些能力都没那么重要。大模型公司最核心的需求就是模型跑起来之后不能宕机,否则需要从头再跑一遍,浪费时间就等于浪费钱。几家互联网大厂都在努力保证服务的稳定性,实际上技术能力的差异性并不大。 

产品没有独特的竞争力,这意味着谁家拥有更多的A800,谁就拥有了“核心竞争力”。

从抢客户到抢卡大战

谁也没有预料到,云计算平台的竞争已经演变为了一场“抢卡大战”。

去年10月17日,美国更新了针对人工智能芯片的出口管制规定,英伟达包括A800和H800在内的GPU芯片对华出口都受到影响。 

A800的价格随之水涨船高,到了一天一个价格的地步。 

而国内云计算平台在年第四季度给英伟达下的订单,到去年底才几乎供齐。去年二三季度的订单对于这些甲方来说,交付依然遥遥无期。

“虽然订单已经下了,但英伟达会不会违约?这些订单到底啥时候能供货?到货的时候大模型的算力需求还存不存在?还能不能赚到钱?这些问题我们真的判断不了。”一家云计算平台高管对此非常头疼。 

从23年年中到现在,A800芯片的价格已经从8万元左右一路上涨到了17万元左右。买到卡囤几个月再卖掉,变成了一个投机的好生意,但并不是所有人都有这样的眼光。

当各家云计算平台和服务器公司都疯狂找卡的时候,一个“笑话”在业界流传:2022年初,腾讯云囤了几万张英伟达计算卡,但他们觉得没有太大多用处,年中又把一批卡转手卖给了火山引擎。后来腾讯自然是十分后悔,因为这相当于几亿元的利润没了。

到了2023年,腾讯云也因为缺卡急了。据一位和腾讯云合作的服务器厂商高管透露,后来腾讯云拿到一批A800之后,因为要急迫上线,腾讯云的工程师和服务器厂商的工程师现场攒机,一天可以攒8-10台,攒完就立即交付上线。

而算力价格波动甚至让云计算平台的产研们也非常苦恼——即便他们经历过云计算行业残酷的价格战,也没有见过要每天要像盯股市大盘一样盯A800价格的阵仗。

作为一个服务产品,云计算销售给予不同客户的折扣尺度有相当大的浮动空间,背后依托的正是产研对成本和利润的核算。传统意义上,低于3折的价格肯定会让公司成本难以为继,但如果为了争取到一个优质客户,这样的亏损可以通过时间和其他客户的利润摊平——这也是过去厂商们价格战的核心策略,能够计算准确的前提是成本保持稳定。

但没有人能预见A800之后几个月的价格,而新的芯片供给还需要再等——英伟达计划在今年第二季度量产符合美国出口规定的AI芯片H20。这款芯片本来应该在去年11月推出,但服务器厂商在集成芯片时遇到了困难。届时国内的大客户们谁能够抢到这一批芯片,还很难有定论。

因此,对于厂商来说,定价还是难题。或许这个月打三折,公司还有毛利;再过几个月,报价打五折都不一定能够回本。

客户也在精打细算的过日子。虽然去年3月以来,各家初创公司对算力的需求迫切,但随着下半年风口渐停,融资变得没有那么容易了,在采购算力的时候,大模型公司也更加看重价格。

原本在降本增效的背景下,从2023年开始,阿里、腾讯和百度等几家大厂在整体战略上已经放弃了以价格战换市场的思路,仅仅针对个别优质客户去打价格战。

而在目前缺卡的背景下,价格甚至也缺乏说服力,资源变成了唯一的子弹。行业内的挖角方式变成了,即使甲方已经和某家平台签下了订单,依然会有人找上门来,“告诉你对方缺卡,我们这里还有算力,要不你先过来跑。”

在大模型风口之下,想要通过出售算力赚钱的“卖水人”——那些云计算平台,没人有底气说自己赚到钱了。只有英伟达,成为了那家真正赚到钱的公司。 

大模型不是云计算大厂的出路

“你希望算力能够实现什么价值?”

在不断被客户问“有没有卡”时,AWS的销售总监赵孟总是试图把话题推向另一个维度。

一卡难求的局面不仅影响到了大模型行业,互联网、游戏等领域的客户也有各自新增的算力需求。如何在有限的资源条件下平衡不同的客户,也是云计算平台面临的另一个难题。

在大模型公司对云计算方的考察中,有没有卡成为了决定性因素,但云计算平台自身能力的差异化缺被忽视。在赵孟看来,只有了解对方想用算力解决什么问题,云计算平台才能发挥出更大的价值。

简单来说,云计算平台赚的钱本身就是其附加价值——从上游采购服务器资源,再通过提供统一化、标准化的服务接口,可以让客户在无需关注服务器设备的情况下,更灵活的使用计算、存储和网络资源。

这是云计算平台作为“中间商”能够替客户省心的作用,但当上游服务器所需要的GPU不断涨价也一卡难求时,云计算平台能从附加价值中赚到的钱已经所剩无几。 

赵孟更希望自己出售给客户的不仅仅是算力,而是帮助他们解决问题的工程化支持和工具,“OpenAI本质上也提供算力,真正有价值的是能被应用层使用的能力。”

实际上,包括阿里云和百度云也是类似的思路,他们都在训练自己的大模型,希望向应用层的公司出售其大模型的能力。 

但并不是所有人都接受云计算厂商们的方案。客户两极分化非常明显,而不接受的客户占比更大。

当赵孟去向游戏和互联网客户讲述大模型的能力,客户们的心态往往会经历三个阶段:第一阶段是受到震撼;第二阶段是展开想象、想象大模型能力能够如何为自己落地应用;到真正收敛需求的第三个阶段,没有人真正知道大模型能提供什么实际的价值。

除了价值模糊,这条路的另一个阻力是收入微薄。

从界面新闻获得的一份百度智能云千帆大模型平台的调用数据情况来看,大模型应用层给云计算平台带来的商业收益十分有限,甚至远不如直接出售算力。

这份数据显示,目前百度智能云千帆大模型平台周调用量过万的已经是超级大客户。但核算成收入每个月仅为几万元,这与预训练大模型的前期投入成本完全不成比例。相比之下,一个新能源汽车客户一年给百度云带来的收入可以达到几亿元。

百度千帆大模型平台的一位业务负责人向界面新闻表示,“业界对大语言模型的预期被炒的过高,但它并不是万能的。”目前其应用也仅限于文档处理、客服等少数几个场景,真正需要人工智能提升生产力的工业制造领域,大模型目前还谈不上有可发挥的空间。

“年初想大干一场,现在已经不抱什么希望。”这位负责人在2023年下半年接到了一家头部大模型初创公司的橄榄枝,对方承诺了数量可观的期权。在过去五到十年的风口中,这样的挖角可能意味着财富自由的机会,但这一次,这位负责人并没有太多兴奋感。

“大模型的风口真的存在吗?”他问出了心中盘旋已久的疑惑。“如果大模型的风口都不存在,云计算大厂的出路又在哪里呢?”

(应采访对象要求,文中李武、赵孟为化名)

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开