美光推出 HBM4 样品:12-Hi 36 GB 模块 带宽达 2 TB/s
美光公司在 HBM4 架构方面取得了重大进展,该架构将堆叠 12 个 DRAM 芯片(12-Hi),每个封装可提供 36 GB 的容量。据公司代表称,首批工程样品计划在未来几周内向主要合作伙伴发货,为 2026 年初的全面量产奠定基础。
HBM4 设计基于美光公司成熟的 DRAM 单元 1β(“one-beta”)工艺节点,该节点自 2022 年起投入生产,同时公司还准备在今年晚些时候推出支持 EUV 技术的 DDR5 1γ(“one-gamma”)。
通过将接口宽度从每个堆栈 1,024 位增加到 2048 位,每个 HBM4 芯片可实现 2 TB/s 的持续内存带宽,这意味着效率比现有的 HBM3E 标准提升了 20%。NVIDIA
和 AMD 预计将成为美光 HBM4 的早期采用者。 NVIDIA 计划在 2026 年下半年将这些内存模块集成到即将推出的 Rubin-Vera AI 加速器中。AMD 预计将把 HBM4 集成到其下一代 Instinct MI400 系列中,更多信息将在 AMD 的 Advancing AI 2025 大会上公布。
HBM4 更高的容量和带宽将满足生成式 AI、高性能计算和其他数据密集型应用日益增长的需求。更大的堆栈高度和更宽的接口宽度可实现更高效的数据移动,这是多芯片配置和内存一致性互连的关键因素。
随着美光公司开始量产 HBM4,需要克服的主要障碍将是散热性能和实际基准测试,这将决定这一新内存标准能否有效地支持最苛刻的 AI 工作负载。