评论共8条 显示8条
匿名人士 发表于 2025-06-17 19:04:49
训练部署fp8的多,bf16 cnn那种小模型多
支持:(1) 反对:(0);
--------
匿名人士 发表于 2025-06-17 18:54:49
不要以为给了华子最优工艺,华子就解决一切问题了。互联/浮点数精度/软件生态,随便华子折腾,没个10年8年工夫,都不能完全解决。nv还能续10年?不是行业开创者,领导者,也就是吃点剩饭,这无关华子,这是行业本质。
支持:(1) 反对:(1);
--------
匿名人士 发表于 2025-06-17 18:50:07
说点技术相关的,目前cloudmatrix是384节点,比h100的nvl 256节点是多的,老黄指的是这个。不过b100是nvl 576节点集群。
另外华子的ub互联带宽比nv的nvlink目前是差上两代的速度,这非常影响节点互联,就算是节点数量上来,也还是打不到nvl256的。
工艺是绝对会有很大影响的,对于这种超算来说,功耗比是非常重要的指标。另外,中芯国际的5nm工艺,良率太低了,这会导致华子的cloudmatrix 384的成本很高。当然全是国企买单。
别乱喷,也不用瞎沸腾
支持:(1) 反对:(0);
--------
匿名人士 发表于 2025-06-16 16:08:30
脑子里只有工艺迟早被工艺害了你,现在能封印它的除了工艺还有啥?
支持:(2) 反对:(4);
--------
匿名人士 发表于 2025-06-16 15:37:40
不懂就别乱说,你去hf上看看几个大模型默认推理不是用bf16的
支持:(0) 反对:(0);
--------
匿名人士 发表于 2025-06-16 12:27:22
用兩個火車的機架超過單個標準機架?
支持:(1) 反对:(3);
--------
匿名人士 发表于 2025-06-16 11:59:48
BF16?不是,现在还有模型用这个?你这是10年前的设计吗?
支持:(0) 反对:(6);
--------
匿名人士 发表于 2025-06-16 11:55:42
能超过nvdia,用的多少nm的工艺啊?再自信一点儿,你就宇宙第一得了。
支持:(2) 反对:(5);
--------