在AI算力需求持续爆发的背景下,存储技术正成为决定下一代数据中心性能的关键瓶颈。加州当地时间16日周一,韩国三星电子在英伟达举行的年度开发者大会GTC上首次公开展示下一代高带宽存储芯片HBM4E,并重点展示其与英伟达在AI计算平台上的合作。

三星此次展示的HBM4E被视为其下一代AI内存路线图的重要节点:该产品预计单引脚速度可达16Gbps、总带宽达到4TB/s,目标面向未来AI加速器与超大规模数据中心。业内普遍认为,这一发布标志着AI芯片生态中“算力—存储”协同升级进入新阶段,同时也加剧了三星与SK海力士等厂商在HBM市场的竞争。

在本届英伟达GTC大会上,三星首次公开展示HBM4E实物芯片,也就是三星的第七代高带宽内存(HBM)技术。HBM4E定位为HBM4的升级版本,旨在为下一代AI加速器提供更高带宽和更低延迟。

根据三星披露的信息,HBM4E预计将实现:

  • 单引脚传输速度 16Gbps
  • 单堆栈带宽 最高约4TB/s
  • 面向下一代AI和高性能计算系统

相比此前HBM产品,该性能水平进一步提升了AI模型训练和推理所需的数据吞吐能力,被认为是支撑万亿参数模型与AI数据中心扩张的关键基础设施。

HBM技术通过3D堆叠方式将多个DRAM芯片垂直连接,大幅提高内存带宽并降低功耗,目前已成为AI GPU和加速器的核心组件。

三星在GTC展示的另一核心信息,是其与英伟达在AI基础设施上的合作深化。

三星表示,其HBM产品路线图将面向英伟达下一代AI平台进行优化,包括为未来AI系统提供完整存储解决方案。

业内普遍认为,HBM4与HBM4E将成为未来AI GPU平台的重要配套内存。例如,英伟达下一代AI架构平台预计将搭载HBM4内存,并对带宽提出更高要求。

在AI算力竞赛中,GPU性能增长往往依赖更高带宽内存支撑,否则会出现“算力被内存限制”的瓶颈。因此,大型AI芯片厂商正不断推动HBM技术升级,以满足模型规模快速增长带来的数据传输需求。

在展示HBM4E的同时,三星还强调其HBM4产品已进入商业化阶段。

公司此前宣布,HBM4已经开始量产,数据传输速度达到 11.7Gbps,并可提升至13Gbps,同时通过先进DRAM工艺和堆叠技术提升带宽和能效。

HBM4在带宽、功耗和热管理方面均较HBM3E显著改进,例如:

  • 单堆栈带宽最高可达3.3TB/s

  • 能效提升约40%

  • 热管理能力进一步增强

随着AI模型规模不断扩大,HBM已成为AI服务器成本结构中增长最快的关键组件之一。

三星此次展示HBM4E,也被视为其在HBM市场与SK hynix竞争的重要一步。

过去两年,SK海力士凭借HBM3和HBM3E产品在AI GPU供应链中占据领先地位,而三星正通过HBM4和HBM4E加快技术追赶。

随着AI算力投资持续增长,HBM需求正迅速扩大。业内预计,未来几年HBM将成为DRAM行业增长最快的细分市场,并成为AI产业链中的核心战略资源。

在此背景下,从GPU厂商到存储厂商,围绕AI算力平台的技术升级与供应链竞争正全面升温。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。