英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存

摘要:

TrendForce报告称,下一代HBM3和HBM3e内存将主导人工智能GPU行业,尤其是在企业对整合DRAM的兴趣显著增加之后。现有的英伟达 A100 和 H100 AI GPU 分别采用 HBM2e 和 HBM3 内存,它们分别于 2018 年和 2020 年亮相。美光(Micron)、SK 海力士(SK Hynix)和三星(Samsung)等多家制造商正在快速开发用于大规模生产更快的新型 HBM3 内存的设备,用不了多久,它就会成为新的基准。

HBM3-GPU-g-standard-scale-4_00x-Custom-1456x779.jpg

关于 HBM3 内存,有一个普通的细节不为很多人所知。正如 TrendForce 所强调的那样,HBM3 将以不同的形式出现。据报道,低端 HBM3 将以 5.6 至 6.4 Gbps 的速度运行,而高端变体将超过 8 Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+ 和 HBM3 Gen2"。

20230801_135351_2023-08-01_135447.png

机构预计,HBM 行业的市场份额必将大幅上升,而 SK 海力士则处于领先地位。预计未来的人工智能 GPU,如 AMD MI300 Instinct GPU 和英伟达的 H100,都将采用下一代 HBM3 工艺,而 SK Hynix 在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。

美光(Micron)最近也宣布了其未来的 HBM4 内存设计计划,但预计要到 2026 年才会实现,因此即将推出的代号为"GB100"的英伟达 Blackwell GPU 很可能会采用速度更快的 HBM3 变体,时间大约在 2024-2025 年之间。采用第五代工艺技术(10 纳米)的 HBM3E 内存预计将于 2024 年上半年开始量产,三星/SK 海力士预计都将加紧生产。

SK-hynix_HBM3-24GB_02-gigapixel-standard-scale-4_00x-scaled.jpg

SK hynix 率先推出 12 层 HBM3 内存,每层 24 GB 容量,向客户提供样品

三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能 GPU 的内存供应商。

在之前的报道中,我们根据 TrendForce 披露的数据讨论了人工智能产业的前景。据预测,从 2023 年到 2027 年,人工智能服务器出货量预计将增长 15.4%,复合年增长率(CAGR)预计为 12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。

查看评论
created by ceallan