美光领先于SK Hynix 和三星 启动HBM3E内存的生产

摘要:

美光科技(Micron Technology)周一表示,该公司已开始批量生产其 HBM3E 内存。该公司的HBM3E已知良好堆栈芯片(KGSD)将用于NVIDIA的H200计算GPU,用于人工智能(AI)和高性能计算(HPC)应用,该产品将于2024年第二季度出货。

HBM3-Gen2-Press-Deck_7_25_2023_000005-678_678x452.jpg

美光透露其正在大规模生产 24 GB 8-Hi HBM3E 设备,每个设备的数据传输速率为 9.2 GT/s,峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA 的 H200 这样对带宽要求极高的处理器尤为重要。

NVIDIA 的 H200 产品采用 Hopper 架构,计算性能与 H100 相同。同时,它配备了 141 GB HBM3E 内存,带宽达 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 带宽有了显著提升。

美光使用其 1β(1-beta)工艺技术生产其 HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E 产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。

领先于竞争对手 SK Hynix 和三星开始量产 HBM3E 内存是美光公司取得的一项重大成就,目前美光公司在 HBM 领域占据 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。

美光科技执行副总裁兼首席业务官 Sumit Sadana 表示:"美光在 HBM3E 这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的 HBM3E 和 HBM4 路线图,以及我们面向人工智能应用的全套 DRAM 和 NAND 解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"

查看评论
created by ceallan