一场由DeepSeek公布利润率引发的“血案”

摘要:

3月1日,在连续五天开源日之后,DeepSeek又来了一个“One More Thing”,并扔下一枚“核弹”——在分享了其基础设施里极为关键的EP(多专家并行)组件代码的同时,也首次公开了它的利润率。根据DeepSeek公开的信息计算,它理论上一天的总收入为562027美元,成本利润率高达545%。

这是DeepSeek对它的“盈利能力”的最直接的一次回应。自从DeepSeek R1成了现象级的话题后,对它模型能力的质疑逐渐消失,但对它的高性价比和模型背后的成本,以及由此带来的“烧钱”问题,依然有不少质疑。有硅谷从业者称,这次公布的数据会再次让英伟达们彻夜难眠,让从业者开始新的反思。

而在国内AI领域,这次重要的开源带来的影响则以另一种更加剧烈的形式呈现了出来——它引发了一场两家中国AI Infra公司之间的“血案”。

1 尤洋与袁进辉的争论

事件的两个主角,一方是尤洋及其创办的潞晨科技,另一方是袁进辉及其创立的硅基流动。

先是DeepSeek的这篇技术分享在知乎发布后,不少用户开始@尤洋,让他点评。这是因为此前在DeepSeek被各家服务商争相部署的热潮里,他是最积极的反对声音之一。此前尤洋曾在社交平台上计算过部署DeepSeek的成本和收益,并得出结论,部署DeepSeek并提供服务的AI Infra 公司,都是在亏钱,并且是“月亏四亿”。

他提到:短期内,中国的MaaS(模型即服务)模式可能是最差的商业模式,大厂相互卷低价和免费,满血版DeepSeek R1每百万token(输出)只收16元。如果每日输出1000亿token,基于DeepSeek的服务每月的机器成本是4.5亿元,亏损4亿元;用AMD芯片月收入4500万元,月机器成本2.7亿元,这意味着亏损也超过2亿元。

此次DeepSeek的开源周并非要回应某个具体质疑,但其公布的利润率之高,显然与这个计算完全相反。人们首先想到了尤洋。尤洋也在四个小时后发文回应,称DeepSeek官方这一计算方法不能用于MaaS盈亏评估。在论述中,他延续了“基于大模型的Mass服务不赚钱”的立场。

紧接着,他的潞晨科技宣布将在一周后停供DeepSeek API。

而另一家AI Infra公司硅基流动的创始人袁进辉也在讨论中被很多人提到。在DeepSeek春节期间彻底出圈走红后,硅基流动是国内最早一批行动起来提供部署服务,承接住DeepSeek带来的需求的公司之一。而流量之大,让这家公司不仅正式出圈,也在过程中出现一些争议,包括它此前提供的推荐“反佣”式的优惠被快速薅羊毛,收费服务与免费服务的调整等。但本质上,袁进辉和硅基流动是相信快速跟进并提供DeepSeek的MaaS服务是此刻最正确的决策。

因此尤洋当初的批评也就指向了这家同行公司。彼时,袁进辉与尤洋就已经有过一轮“交锋”,前者认为亏损 4亿的计算方法有误,因为使用了错误的架构进行估计。而尤洋直接回应:“弄400台机器,看看每日能否输出1000亿满血DeepSeek R1 token,让我看看。”

而这次DeepSeek官方直接“让人看到”了这是可行的。袁进辉也在DeepSeek文章发布一小时后就火速评论道,“又颠覆了很多人的认知”,他认为“很多供应商做不到这个水平”,"MaaS能否成功,关键在于技术实力和用户基础。"

“谁做不到,谁就是技不如人”的含义,尽在不言中。

而紧接着更戏剧化的隔空对决开始了。尤洋随后直接发了一篇直接批评硅基流动这家公司的文章。《坑人的硅基流动》(现已删除)一文将炮火从技术争论转向直接对对方的攻击。此时话题核心也从DeepSeek的利润,转向了两家公司之间的恩怨情仇。袁进辉也第一时间回应,一方面强调了硅基流动一系列动作背后的思路,另一方面直接抖出“潞晨代码抄袭”的旧案。但这两个显得都有些冲动的争论,后都已删除。

这些争论也在知乎等技术人员聚集的平台上引发了广泛的延展讨论,AI Infra公司难得的自己变成了行业热议话题的主角。

2 到底谁算的对?

在这场争论中,到底如何计算,以及由不同计算方法而得出的AI Infra是否是巨亏的生意,是第一个核心议题。

在上周的连续五天,DeepSeek刚刚发布了五项核心技术,涵盖计算优化、通信加速和存储架构等领域,几乎将自己的核心AI Infra技术全部公布开来,大幅提升了大模型训推硬件效率。而在DeepSeek的这篇《DeepSeek-V3/R1 推理系统概览》文章里,又进一步揭示了这些技术和部分是如何组装联系在一起的,相当于一个串联式的总结内容。据介绍,DeepSeek使用了大规模跨节点专家并行(EP)的方法,并通过一系列技术策略,最大程度地优化了大模型推理系统,实现了惊人的性能和效率。

在文章的末尾,DeepSeek以理论成本和利润计算作为句号,为这次以开源降本为核心目的的开源周,画下了一个完美的句号:假定GPU租赁成本为2美元/小时,总成本为87072美元/天;如果所有tokens全部按照DeepSeek R1的定价计算,理论上一天的总收入为562027美元/天,成本利润率为545%。

其中,DeepSeek的计算方式如下:

这里DeepSeek说的很清楚:

一成本只核算了等量租用GPU的费用,硬盘、存储、内存CPU、人力运维都被没有被计算;

二收入却将APP、网页、API消耗的所有Token(to C和to B的总消耗量)加在了一起,均按照API(to B)的价格计算,理论上一天成本利润率是545%。

事实上,这的确是一个典型的量化风格的“最大可能性”推算,我们都知道,DeepSeek的APP和网页是完全免费的,同时也并不保证流畅的用户体验。但是假如DeepSeek向用户按照API的价格收费,他的收入潜力可以达到上述金额。

也就是说,DeepSeek计算的是“我作为一个大模型厂商,我要是想,我可以赚到这么钱。”

所以,从这个角度来看,后来尤洋认为“这篇文章中的数据对计算MaaS成本没有任何参考价值”,也不无道理。

毕竟MaaS是典型的企业服务,而企业的第一准求并不是性能而是稳定,而为了保证稳定性,云厂商的特点就是弹性伸缩、按需取用,所以必须准备足够大冗余。

DeepSeek算的是一笔“过去的账”,而MaaS平台如果要保证未来的稳定,尤洋也给出了预备比例,必须时时刻刻有5倍的机器专门为了满足客户的需求,这里我们需要考虑一旦部署的集群过大、使用效率、运费、用电的成本将指数级的上升。

尤其在如今各家MaaS平台用户的使用数量都稀少,没有办法做到削峰填谷资源高效利用的前提下,MaaS厂商是很有可能亏本的。

总结一下,理论上(非常理想化,一人吃饱全家不饿的前提下),DeepSeek的利润率可以达到,但考虑到实际的使用情况和大规模之后的优化成本,就很有可能亏钱了。

那么问题又来了,为什么部署DeepSeek亏本,而DeepSeek自己的推理却赚钱?

这个问题的答案藏在袁进辉的回复中:现在很多供应商做不到这个水平,主要是V3/R1架构和其他主流模型的差别太大了,MaaS厂商需要按照DeepSeek的报告调,才能达到最好的效率。

这里需要补充一个前提是,过去的云厂商所建立的IaaS层是以CPU为核心的服务器集群,而高效的推理需要以GPU为核心完成并行计算。原本的MaaS用来生成问题不大,但R1/V3所采用的稀疏架构,对云来说是一个新的挑战,需要特调以进行适配。

MaaS厂商们低估了DeepSeek模型架构的复杂性,用老一套来支持新模型,显然出现了性能不足的阵痛。而大模型一体机由于可以直接改造到硬件层,能够根据DeepSeek来专门定制型号,因此比MaaS提供的模型的性能和稳定性都更高,近期,硅基流动也与华为昆仑展开了合作,推出DeepSeek一体机,尝试解决推理性能不足的问题。

但DeepSeek不仅深谙自己的模型架构,做了软件算法层的调优,甚至将算力压缩到了优化芯片层,以“榨干”每一滴性能。

幸而在刚刚过去的开源周里,DeepSeek开源了如何提高推理效率的5个模块,理论上只要跟着做,接下来其他MaaS厂商也能复现出来。

3 所以,AI Infra公司们的未来在哪里?

这些争论背后,AI Infra公司们再次被大众注意到。作为提供底层基础设施服务的公司,它们此前从来不是外界关注的焦点,但DeepSeek后,由于海量的需求无法由DeepSeek自己来满足,AI Infra公司得到了一次直接面向海量广泛用户的机会,也因此出圈。

但随着DeepSeek在它自己AI Infra研究上的连续开源,很多人意识到,独立的AI Infra公司似乎再次遇到了严重的“存在感危机”。

当DeepSeek不仅造出了最强的模型,同时也有最强的基础设施技术时,它似乎就变成了一个新的规则制定者:如果独立的公司想要提供部署DeepSeek模型的AI Infra生意,你就要使用DeepSeek的技术方案,不仅需要卷到极致,来快速复现DeepSeek做出的东西,还要在此基础上,去做些DeepSeek不做的诸如帮助开发者、帮助企业一对一的做落地服务等,进而来承载它服务不到,或目前没有作为重点去服务的用户们,从中尽可能的做大用户规模,来摊薄成本,让自己的利润率也无限接近DeepSeek官方算出来的那天花板的比例,这才有可能“存活”下去。

这种“DeepSeek吃肉,其他大家比赛谁能做喝到最多汤的那一个”的格局是否就是AI Infra的未来?这可能才是这场争论背后对行业真正重要的话题。

袁进辉也就此话题回复了硅星人,他认为这样的未来是否会发生,关键的一个变量就是开源。“如果模型一家独大,而模型厂商又想吃这块蛋糕,的确其它各方就有压力,尤其如果模型是闭源的,就像OpenAI 这样,就会更是如此。”他说。

“但当模型开源后,就要看外界有没有机会把infra或芯片的能力做的超过模型厂。”

而另一个变量则是这个剧烈变革的技术周期本身,它事实上让曾经分工比较明晰的不同技术角色的公司,竞争界限变得模糊。从DeepSeek的部署热潮里就能体会到——从AI Infra公司,到模型公司再到芯片公司,都参与了进来,提供着相似的服务,抢夺同样的市场。

“今天模型,芯片,infra 其实都是半成品,彼此的关系是又合作又竞争,最终大家都要角逐类似cloud的位置。”袁进辉对硅星人说。

在这场竞争里,AI Infra不是最有优势的那一个,但另一方面,它事实上也拥有了一次从没有过的机会,从一个不太被注意的角落终于变成了焦点。在今天这个节点,是否压上“身家性命”和对自己技术工程能力的信心去赌一把未来“下一代云”的机会,会变成区分这些公司的关键决定。

硅星人也向尤洋提出关于AI Infra的未来走向的问题,他回复称,目前先不接受访谈了。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan