分享: |
8月21日消息,韩国半导体制造商SK海力士宣布,成功开发出面向AI领域的超高性能DRAM新产品HBM3E,并开始向英伟达等客户提供性样品进行性能检测。
HBM技术(High Bandwidth Memory)是一种垂直连接多个DRAM芯片从而提高数据处理速度的创新技术。SK海力士以唯一量产HBM3的经验为基础,成功开发出全球最高性能的拓展版本HBM3E,凭借业内最大规模的HBM供应经验和量产成熟度,将从上半年开始投入HBM3E量产,以此夯实在面向AI的存储器市场中独一无二的地位。
HBM3E内存(或显存)作为先前推出的HBM3的拓展版本,主要面向AI应用,满足了用于AI的存储器必备的速度规格,在发热控制和客户使用便利性等所有方面都达到了全球最高水平。
超高带宽
在速度方面,HBM3E的带宽高达1.15TBs,即最高每秒可以处理1.15TB(太字节)的数据,相当于1秒内能传230部全高清(Full-HD,FHD)级电影(5千兆字节,5GB)。
散热效率提升
HBM3E不仅在数据处理速度上有所突破,在散热性能上也进行了提升。HBM3E使用了SK海力士的Advanced MR-MUF回流模塑底部填充散热技术,散热率相较于上一代提升了10%,有效确保了芯片在高强度运行时的稳定性。
向后兼容性
HBM3E还具备向后兼容性(Backward compatibility),兼容先前的HBM3等标准,无需修改CPU、GPU等设计。这说明往后客户在基于HBM3组成的系统中无需修改其设计或结构也可以直接采用新产品。
主流趋势
据分支机构TrendForce预测,2023年市场主流需求将从HBM2e转向HBM3,预计需求比重为50%及39%。随着HBM3的加速芯片陆续放量,2024年市场需求无疑会转向HBM3,且HBM3在2024年将超越HBM2e,比重预估达60%。
市场规模
有证券机构表示,一台AI服务器大约需要320~640GB的HBM容量,目前AI训练用服务器基本均需配备HBM,未来HBM的渗透率将达到快速提升,HBM的需求量也将快速增长,预计明年HBM的市场规模将达86亿美元,对应2022~2024年化增长率为178%。
英伟达Hypercale和HPC部门副总裁伊恩·巴克(Ian Buck)表示,之所以选择与SK海力士进行长期合作,是因为英伟达需要最先进加速计算解决方案(Accelerated Computing Solution)所应用的HBM,并期待两家公司在今后的新一代AI计算领域能进行持续有效的合作。
SK海力士DRAM商品企划担当副社长柳成洙表示,SK海力士通过HBM3E,在发展AI技术的同时有效提升了HBM市场产品阵容的完成度,并进一步夯实了市场主导权。今后随着高附加值产品HBM的供应比重持续加大,经营业绩反弹趋势也将随之加速。
▼最新活动▲▼精彩视频▲
戳“阅读原文”报名OFweek 2023(第八届)物联网产业大会
电话:13248139830(展商名录/门票)
![]() |
![]() |
![]() |
![]() |
世展网公众号 |
微信小程序 |
销售客服 |
门票客服 |