史上最贵“闲置品”诞生:微软一堆GPU仓库吃灰 只因缺电

摘要:

AI圈最昂贵的“闲置物品”诞生了:价值数十亿美元的英伟达顶级GPU,正躺在微软的仓库里吃灰。原因简单到令人难以置信:没电。就在最近,微软CEO萨蒂亚·纳德拉(Satya Nadella)和OpenAI首席执行官萨姆·奥特曼(Sam Altman)一同做客Brad Gerstner的《BG2》播客访谈节目,罕见地“自曝家丑”,亲口证实了这个令人震惊的窘境:“我们现在最大的问题,不是算力,而是电力……事实上,我有一堆芯片堆在库存里,却没电可用。”

此言一出,市场皆惊。当所有公司还在为抢不到芯片而焦虑时,手握海量GPU的微软却遇到了一个更根本的难题:找不到足够的“插座”

从“算力荒”到“电力荒”,AI的狂飙突进,似乎撞上了物理世界最坚硬的一堵墙。


芯片堆满库房,却找不到“插座”

长期以来,科技界普遍认为“算力”是阻碍AI发展的最大壁垒。因此,微软、OpenAI等公司一直在疯狂采购GPU。

但现在看来,他们似乎跑得太快了。

纳德拉在播客中坦言,微软订购的芯片数量,显然已经超过了他们合同所能确保的电量。

“在这种特殊情况下,你根本无法预测需求和供应的周期,”纳德拉说,“我们最大的问题是电力,是能否在靠近电源的地方快速建成数据中心。”

所谓“暖壳”是商业地产术语,指的是那些基础设施齐全、能让租户“拎包入住”的建筑。换句话说,微软现在是芯片管够,但缺“带电的房子”。

这不仅是纳德拉的个人观点。微软首席财务官艾米·胡德(Amy Hood)在上周的财报电话会议上也向分析师证实:获取计算硬件一直都不是微软的瓶颈,“我们缺的是空间和电力”。

她甚至补充表示:“这种局面已经持续好几个季度了。我原以为我们能赶上,但没有。需求还在增长。”

财报数据显示,微软在2026财年第一季度投入111亿美元用于租赁数据中心。仅2025年一年,微软在全球就新增了约2吉瓦的算力容量,使其数据设施总数突破400座。

TD Cowen上月发布的报告表明,2025年第三季度,美国超大规模企业租赁的数据中心容量已超过2024年全年总量。虽然大部分增幅来自甲骨文和OpenAI,但Google、Meta、微软、亚马逊及Anthropic的算力也显著增加。

同样于上月发布的标普全球报告则指出,到2025年底,全美数据中心对电网电力的需求将较2024年增长22%,而至2030年,这一数字将增长两倍。

AI“吃电”太猛,软件巨头遭遇“硬”挑战

为什么会出现这个局面?

答案很简单:相比于大型发电厂等重资产,芯片和代码都是易于快速扩展和部署的技术。已经习惯这两种技术的科技公司,却一头撞上了能源世界的“南墙”。

在过去十几年里,美国的电力需求与供给基本持平。但过去五年,数据中心的电力需求开始飙升,增速远远超过了公共事业公司规划新发电能力的速度。

这种趋势已导致民用能源费用飙升,显示出AI基础设施建设正在对普通民众产生负面影响。为此,OpenAI甚至已呼吁联邦政府每年新建100吉瓦的发电能力,并称这是美国在与中国的AI竞赛中保持优势的战略资产。

这也迫使数据中心开发商开始寻求“电网外”的解决方案,即跳过公共电网,将电力直接输送到数据中心。

一同参与播客对话的奥特曼认为隐患正在酝酿:如果AI继续以“每年将单位智能的成本降低40倍”的惊人速度发展,那么“从基础设施建设的角度来看,这种指数级变化确实令人心惊。”

这位OpenAI掌门人,早已将目光投向未来能源领域。他个人投资了核裂变初创公司Oklo、核聚变初创公司Helion,还有一家名为Exowatt的太阳能初创公司。

越便宜,越饥渴:AI的“无限”胃口

尽管太阳能光伏技术因为成本低、部署快、零排放,正被科技公司争相采纳,但它和数据中心一样都需要建设时间。事实上,现在下的新燃气轮机订单,很可能要到这个十年末才能交付。

而AI的需求变化,比任何一个项目的完工速度都要快得多。

奥特曼承认,如果AI能效提升或需求增长不及预期,部分企业可能会面临发电设施闲置的困境。

但他本人似乎是“杰文斯悖论”(Jevons Paradox)的坚定信徒。该理论认为,资源使用效率的提升反而会导致用量增加,从而推高总体需求。

“假设明天,每单位智能的计算价格下降了100倍,”奥特曼说,“你会发现使用量的增长远不止100倍。许多在当前成本下不具经济可行性的算力应用,届时都将迎来爆发。”

换句话说,AI越便宜、越高效,世界对它的需求就越庞大,对电力的渴求也就越趋近于无限。

真正的风险:能源革命与本地化计算

然而,能源供给的发展变化也让所有AI从业者面临着巨大风险。未来的能源革命或许会让当下的大规模电力投资付诸东流。

正如奥特曼在谈话中所警告的:“如果某种非常便宜的能源形式很快实现大规模应用(比如核聚变),那么很多签了现有昂贵电力合同的企业将会遭受重创。”

这场对话还揭示了押注超大规模AI数据中心必须面对的另一颗“定时炸弹”:本地化计算的崛起。


奥特曼畅想:“总有一天,我们会打造出一款革命性的消费设备,可以在本地以低功耗运行GPT-5或GPT-6级别的模型。”

如果AI模型真的可以在个人电脑或手机上实现本地化高效运行,那么科技巨头们斥资数十亿、数百亿建造的庞大AI数据中心,其推理需求可能根本不会兑现。

播客主持人也随即评论:“这确实很了不起,但显然也会让那些投入巨资建设集中式算力集群的企业感到担忧。”

到那时,这种情况可能加速人工智能泡沫的破裂。而当泡沫破灭时,暴露在风险之下的将是高达近20万亿美元的恐怖市值。

从“算力荒”到“电力荒”,AI发展显然已经步入了深水区。微软仓库里那些无法点亮的昂贵芯片,或许只是这场巨大转型阵痛的开始。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan