英特尔正在为 AI 加速器准备 HBM 内存替代品
近年来,人工智能加速器的需求激增,这给供应商带来了压力,迫使他们提供更多高带宽内存,以实现更快的训练速度和更高的推理令牌吞吐量。为此,英特尔、软银和东京大学悄然成立了一家名为“Saimemory”的初创公司,致力于开发一种替代现有HBM解决方案的方案,该方案同样采用堆叠式DRAM。
据知情人士透露,原型芯片计划于2027年推出,并计划于2030年实现量产。该合资公司将结合英特尔丰富的芯片设计经验和东京大学的新型内存专利,而软银已承诺提供约30亿日元(约合2100万美元)用于资助这项研究。理化学研究所和神光电气工业也可能作为投资者或技术合作伙伴加入,该团队计划寻求政府支持以加速开发。
传统的HBM依靠硅通孔(TSV)连接多个DRAM芯片,并使用宽总线中介层来实现1 TB/s以上的数据速率。 Saimemory 的设计重新组织了信号路由和刷新管理,以提高能效、延迟和性能。
读者们可能还记得,过去曾有研究尝试引入一种竞争性的堆叠式 DRAM 技术,但未能成功。例如,三星和美光科技于 2011 年左右联合开发的混合存储立方体 (HMC) 承诺速度可达 DDR3 的 15 倍。尽管最初通过混合存储立方体联盟获得了行业支持,但美光科技在 HMC 未能获得市场认可后于 2018 年停止了其生产。
HMC 的衰落表明,取代 HBM 等根深蒂固的内存标准面临挑战。如果 Saimemory 成功,英特尔很可能凭借其即将推出的 AI 加速器成为首个采用该标准的厂商。该联盟也可能与 AMD 和 NVIDIA 等其他公司接洽,以获得试用芯片。不过,大规模部署的可行性在很大程度上取决于可用性和良率。