返回上一页  首页 | cnbeta报时: 03:07:41
分析师估算NVIDIA Blackwell服务器机柜的单价约为200至300万美元
发布日期:2024-07-28 22:28:32  稿源:cnBeta.COM

从分析师估计到首席执行官黄仁勋(Jensen Huang)的评论,NVIDIA 的 Blackwell 平台的定价已经浮出水面。简而言之,要部署这些性能强大的产品,买家将付出高昂的代价。摩根士丹利(Morgan Stanley)预计,2025 年 NVIDIA 将出货 6 万至 7 万个 B200 服务器机柜,年收入至少为 2100 亿美元。尽管成本高昂,但市场对这些功能强大的 AI 服务器的需求依然旺盛。

2024-07-27-image-8-j.webp

据报道,NVIDIA 已投资约 100 亿美元开发 Blackwell 平台,约有 25000 人参与其中。单个 Blackwell GPU 就能实现如此强大的性能,因此这些产品能获得可观的溢价也就不足为奇了。

据汇丰银行分析师称,NVIDIA 的 GB200 NVL36 服务器机架系统将耗资 180 万美元,NVL72 将耗资 300 万美元。功能更强大的GB200 超级芯片结合了 CPU 和 GPU,预计每个芯片的价格为 6 万至 7 万美元。这些超级芯片包括两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。

今年早些时候,首席执行官黄仁勋告诉CNBC,一个Blackwell GPU的成本为3万至4万美元,摩根士丹利根据这一信息计算出了买家的总成本。每个 AI 服务器机柜的售价约为 200 万至 300 万美元,NVIDIA 计划出货 6 万至 7 万个 B200 服务器机柜,预计年收入至少为 2100 亿美元。

2024-07-27-image-3.png

但是,客户的花费是否会在某个时候证明这一点呢?红杉资本(Sequoia Capital)分析师戴维-卡恩(David Cahn)估计,每年支付其投资所需的人工智能收入已攀升至 6000 亿美元......

但现在,毫无疑问,科技公司将付出代价,无论代价有多惨痛也要硬着头皮上。拥有 2080 亿个晶体管的 B200 可以提供高达 20 petaflops 的 FP4 计算能力。要训练一个 1.8 万亿个参数的模型,需要 8000 个 Hopper GPU,耗电 15 兆瓦。

图片.png

这样的任务需要 2000 个 Blackwell GPU,而功耗仅为 4 兆瓦。在大型语言模型推理工作负载方面,GB200 超级芯片的性能是 H100 GPU 的 30 倍,并显著降低了功耗。

据摩根士丹利(Morgan Stanley)称,由于需求旺盛,NVIDIA 正在将其与台积电的订单量增加约 25%。毫不夸张地说,专为机器人、自动驾驶汽车、工程模拟和医疗保健产品等一系列下一代应用而设计的 Blackwell 将成为人工智能训练和许多推理工作负载的事实标准。

2024-07-27-image-14.jpg

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 03:07:41

文字版  标准版  电脑端

© 2003-2024