而HBM(高频宽存储器)作为内存的一种技能类型,采取创新的2.5D/3D架构,能够为AI加速器供应具有高内存带宽和低功耗的办理方案,同时凭借极低的延迟和紧凑的封装,HBM已成为AI演习硬件的首选。
TrendForce预估,2024年环球HBM的位元供给有望增长105%;HBM市场规模也有望于2024年达89亿美元,同比增长127%;估量2025年HBM市场规模将会打破100亿美元。
近日,作为业界领先的芯片和IP核供应商, Rambus Inc.(纳斯达克股票代码:RMBS)宣告Rambus HBM3内存掌握器IP现在可供应高达9.6 Gbps的性能,可支持HBM3标准的持续演进。

大幅提升AI性能 供应领先支持
众所周知,JEDEC(电子工程器件联合委员会)将DRAM分为标准DDR、移动DDR以及图形DDR三类,HBM则属于图形DDR中的一种。
在设计上,HBM包含了中介层,以及处理器、内存堆栈。HBM通过利用前辈的封装方法(如TSV硅通孔技能)垂直堆叠多个DRAM,与GPU通过中介层互联封装在一起,冲破了内存带宽及功耗瓶。这也让传输速率成为了HBM的核心参数。
从2014年环球首款HBM产品问世至今,HBM技能已发展至第四代,分别为HBM、HBM2、HBM2e、HBM3,带宽和容量分别从最初128GB/S和1GB提升至819GB/S和24GB,传输速率从1Gbps提高至6.4Gbps。据悉,第五代HBM3E已在路上, 由SK Hynix、美光和三星共同发布,它所支持的数据传输速率达到9.6Gb/s。
对付HBM而言,Rambus并不陌生,早于2016年就入局了HBM市场。这次发布的Rambus HBM3内存掌握器IP专为须要高内存吞吐量、低延迟和完备可编程性运用而设计。比较HBM3 Gen1 6.4 Gbps 的数据速率,Rambus HBM3内存掌握器的数据速率提高了50%,总内存吞吐量超过1.2 TB/s,适用于推举系统的演习、天生式AI以及其他哀求苛刻的数据中央事情负载。
Rambus 接口IP产品管理和营销副总裁 Joe Salvador先容称,该掌握器是一种高度可配置的模块化办理方案,可根据每个客户对尺寸和性能的独特哀求进行定制。目前已与SK海力士、美光、三星完成了一整套的测试。对付选择第三方HBM3 PHY(物理层)的客户,Rambus还供应HBM3掌握器的集成与验证做事。
就当前HBM市场发展格局,Joe Salvador坦言道:“目前为止还没有理解到有哪一家竞争对手跟我们一样,已经有经由验证的能够去支持HBM3 9.6Gbps传输速率的内存掌握器IP。Rambus HBM3内存掌握器将以高达9.6Gb/s的性能,为HBM3供应业界领先的支持。”
同时,Joe Salvador表示,一家企业想进入到HBM行业会面临相应的一些门槛和有诸多的寻衅,首先便是对付总体架构设计的繁芜度和理解程度不足。Rambus正是得益于积累了多年的技能履历和跟主流内存厂商互助的履历,使得所设计出来的内存掌握器可以做到高性能、低功耗,而且对付客户来说本钱也相对较低,且具有很好的兼容性。
AI时期 Rambus将全面发力
当前大模型的百花齐放,让HBM也水涨船高。
但面对当前AI发展趋势,Joe Salvador直言道,目前来说,我们无法预知它未来会发展到何种程度。“目前,还没有看到AI干系的运用领域,对付高性能打算、更高的带宽和内存容量的需求有任何低落的趋势。以是在可以预见的将来,这都会一贯推动我们持续地创新,以及推动全体行业进一步地创新。”
他还表示,目前可以看到的是,AI的运用处景正在从以前集中在数据中央当中,逐渐地向边缘打算去拓展。对付Rambus来说,这也就意味着我们业务的重心将有可能不再像以前那样全部集中在数据中央当中,而是也会随着市场需求席卷边缘打算的场景。
Rambus 大中华区总经理苏雷补充称,AI向前发展对技能方面的需求,紧张便是算力和内存,算力方面可能不会有太多的寻衅,目前摆在业界面前的更多是存储的问题。而Rambus是存储方面的专家,可以预见到伴随着AI的新发展,Rambus会在这一轮的科技浪潮中发挥越来越主要的浸染,助力AI的发展。