美光宣布已开始提供其"生产就绪"的 HBM3E 内存解决方案样品,该解决方案采用 12-Hi 设计,容量达 36 GB,已向英伟达等合作伙伴提供。
美光 HBM3E 12-high拥有令人印象深刻的36GB容量,比目前的HBM3E 8-high产品增加了50%,使像Llama 2这样拥有700亿个参数的大型人工智能模型可以在单个处理器上运行。容量的增加避免了 CPU 卸载和 GPU-GPU 通信延迟,从而缩短了运算时间。
Micron HBM3E 12-high 36GB 的功耗大大低于竞争对手的 HBM3E 8-high 24GB 解决方案。Micron HBM3E 12-high 36GB 提供超过每秒 1.2 TB (TB/s) 的内存带宽,引脚速度超过每秒 9.2 gigabits (Gb/s)。HBM3E 的这些综合优势能够以最低的功耗提供最大的吞吐量,并确保耗电的数据中心获得更好表现。
此外,Micron HBM3E 12-high 还集成了完全可编程的 MBIST,能够以全规格速度运行系统代表性流量,为加快验证提供了更好的测试覆盖范围,从而加快了产品上市时间,并提高了系统可靠性。
美光现已向主要行业合作伙伴交付可量产的 HBM3E 12-high 单元,供整个人工智能生态系统进行鉴定。HBM3E 12-high这一里程碑展示了美光为满足不断发展的人工智能基础设施的数据密集型需求而进行的创新。
美光也是台积电 3DFabric 联盟的得意合作伙伴,该联盟帮助塑造半导体和系统创新的未来。人工智能系统制造非常复杂,HBM3E 集成需要存储器供应商、客户和外包半导体组装和测试 (OSAT) 厂商之间的密切合作。
以下是美光 HBM3E 12 高 36GB 的亮点:
正进行多个客户资格认证:美光正在向主要行业合作伙伴交付可量产的 12-high 单元,以实现整个人工智能生态系统的资格认证。
无缝可扩展性:HBM3E 12-high 拥有36GB的容量(比当前的 HBM3E 产品容量增加了 50%),使数据中心能够无缝扩展不断增加的人工智能工作负载。
高效率:美光 HBM3E 12 高 36GB 解决方案的功耗大大低于同类 HBM3E 8 高 24GB 解决方案。
高性能:HBM3E 12-high 36GB 的引脚速度超过每秒 9.2 千兆比特(Gb/s),可提供超过每秒 1.2 TB的内存带宽,为人工智能加速器、超级计算机和数据中心实现快如闪电的数据访问。
加速验证:完全可编程的 MBIST 功能能够以代表系统流量的速度运行,为加快验证提供了更大的测试覆盖范围,从而加快了产品上市时间,并提高了系统可靠性。