返回上一页  首页 | cnbeta报时: 06:13:11
NVIDIA表态:没放弃64位计算
发布日期:2025-12-14 23:01:34  稿源:快科技

这两年AI爆发,它不仅影响了AI产业,实际上还在改变了芯片发展的方向,但是这个方向对HPC、科学计算来说可不一定是好事。这是因为NVIDIA近年来已经把AI性能作为一切的核心,计算精度实际上是不断降低的,以前大家比较GPU性能可能还会计算有FP64、FP32这两个核心指标,如今AI时代,FP16、FP8及FP4才是重点。

我们之前提到过,NVIDIA新一代显卡会转向FP4标准,从Blackwell开始虽然也支持FP4、MXFP4这两种标准,但重点推的是NVFP4,它跟E2M1 FP4结构差不多,但精度几乎没有多少损失。

GB300在支持FP4后性能提升了50%,精度比FP8几乎没有损失,内存占用大幅减少2-3倍,能效则是50倍提升。

但是在FP64上面,这几年的显卡,尤其是顶级产品不仅没提升,还在倒退,HPCWire做了这几代显卡的对比,如下所示:

AI已成一切的核心 NVIDAI表态:我们没放弃64位计算

A100时代FP64性能还有9.7TFLOPS,H100及H200是34TFLOPS,B100、B200是30、37TFLOPS,B300则是大幅降低到了1.2TFLOPS。

这已经引起了学术圈的抱怨,SC25大会期间,TOP500的发起人、田纳西大学教授Jack Dongarra就表示NVIDIA在从Hopper架构转向Blackwell时没有实质性提升FP64性能。

AI性能虽然重要,但在科学计算上,比如材料科学、气候建模、流体力学模拟等研究中,FP64性能是无可替代的。

对于这些质疑,NVIDIA负责HPC、AI超大规模基础设施解决方案的高级总监Dion Harris强调他们并没有放弃64位计算,它依然是核心。

他提到10月份推出的cuBLAS,这是一个CUDA-X数学库,可以在矢量核心上模拟FP64计算,使用这个库可以让FP64性能提升1.8倍。

至于专业人士期待的FP64性能提升,Dion Harris提到NVIDIA未来的GPU会在核心底层上提升FP64计算,但具体信息暂时不能说。

明年3月份会有GTC大会上,NVIDIA应该会公布下一代GPU架构了,或许会在这方面有所变化。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 06:13:11

文字版  标准版  电脑端

© 2003-2025