匿名人士2025-06-17 19:04:49
BF16?不是,现在还有模型用这个?你这是10年前的设计吗?
不懂就别乱说,你去hf上看看几个大模型默认推理不是用bf16的
训练部署fp8的多,bf16 cnn那种小模型多
1 0
匿名人士2025-06-17 18:54:49
不要以为给了华子最优工艺,华子就解决一切问题了。互联/浮点数精度/软件生态,随便华子折腾,没个10年8年工夫,都不能完全解决。nv还能续10年?不是行业开创者,领导者,也就是吃点剩饭,这无关华子,这是行业本质。
1 1
匿名人士2025-06-17 18:50:07
说点技术相关的,目前cloudmatrix是384节点,比h100的nvl 256节点是多的,老黄指的是这个。不过b100是nvl 576节点集群。 另外华子的ub互联带宽比nv的nvlink目前是差上两代的速度,这非常影响节点互联,就算是节点数量上来,也还是打不到nvl256的。 工艺是绝对会有很大影响的,对于这种超算来说,功耗比是非常重要的指标。另外,中芯国际的5nm工艺,良率太低了,这会导致华子的cloudmatrix 384的成本很高。当然全是国企买单。 别乱喷,也不用瞎沸腾
匿名人士2025-06-16 16:08:30
能超过nvdia,用的多少nm的工艺啊?再自信一点儿,你就宇宙第一得了。
脑子里只有工艺迟早被工艺害了你,现在能封印它的除了工艺还有啥?
2 4
匿名人士2025-06-16 15:37:40
0 0
匿名人士2025-06-16 12:27:22
用兩個火車的機架超過單個標準機架?
1 3
匿名人士2025-06-16 11:59:48
0 6
匿名人士2025-06-16 11:55:42
2 5
匿名人士2025-06-17 19:04:49
BF16?不是,现在还有模型用这个?你这是10年前的设计吗?
不懂就别乱说,你去hf上看看几个大模型默认推理不是用bf16的
训练部署fp8的多,bf16 cnn那种小模型多
1 0
匿名人士2025-06-17 18:54:49
不要以为给了华子最优工艺,华子就解决一切问题了。互联/浮点数精度/软件生态,随便华子折腾,没个10年8年工夫,都不能完全解决。nv还能续10年?不是行业开创者,领导者,也就是吃点剩饭,这无关华子,这是行业本质。
1 1
匿名人士2025-06-17 18:50:07
说点技术相关的,目前cloudmatrix是384节点,比h100的nvl 256节点是多的,老黄指的是这个。不过b100是nvl 576节点集群。 另外华子的ub互联带宽比nv的nvlink目前是差上两代的速度,这非常影响节点互联,就算是节点数量上来,也还是打不到nvl256的。 工艺是绝对会有很大影响的,对于这种超算来说,功耗比是非常重要的指标。另外,中芯国际的5nm工艺,良率太低了,这会导致华子的cloudmatrix 384的成本很高。当然全是国企买单。 别乱喷,也不用瞎沸腾
1 0
匿名人士2025-06-16 16:08:30
能超过nvdia,用的多少nm的工艺啊?再自信一点儿,你就宇宙第一得了。
脑子里只有工艺迟早被工艺害了你,现在能封印它的除了工艺还有啥?
2 4
匿名人士2025-06-16 15:37:40
BF16?不是,现在还有模型用这个?你这是10年前的设计吗?
不懂就别乱说,你去hf上看看几个大模型默认推理不是用bf16的
0 0
匿名人士2025-06-16 12:27:22
用兩個火車的機架超過單個標準機架?
1 3
匿名人士2025-06-16 11:59:48
BF16?不是,现在还有模型用这个?你这是10年前的设计吗?
0 6
匿名人士2025-06-16 11:55:42
能超过nvdia,用的多少nm的工艺啊?再自信一点儿,你就宇宙第一得了。
2 5