美光领先出货12层HBM4,AI存储器竞争进入新阶段
* 来源 : * 作者 : admin * 发表时间 : 2025-06-12
美光科技近日宣布,已向多家主要客户送样其12层堆叠的36GB HBM4存储器产品,成为继SK海力士之后第二家正式出货HBM4的企业。这一动作标志着全球AI高带宽存储器(HBM)市场进入量产前的关键阶段,也显示出美光在争夺行业主导权上的积极布局。
美光表示,此次推出的HBM4基于成熟的1β DRAM制程,并采用先进的12层封装技术,具备内建自我测试(MBIST)功能,能够为下一代人工智能平台提供高效、稳定的内存解决方案。该产品预计将在2026年实现大规模量产,以配合客户AI平台的扩展节奏。
作为当前AI加速器最重要的存储架构之一,HBM4相较上一代HBM3E,在性能和能效方面均有显著提升。其2048位接口设计,使得单个存储堆叠的数据传输速率超过2.0TB/s,较前代提升超过60%。这将有助于提升大型语言模型和链式推理系统的运行效率,使AI加速器具备更快的响应速度与更强的处理能力。
同时,美光延续了其在HBM3E时代建立的能效优势,HBM4在相同工作负载下进一步降低功耗,整体能源效率提升超过20%,为数据中心带来更高的运算密度和更低的运营成本。
随着生成式人工智能应用场景不断拓展,HBM4的推出不仅将推动服务器与云端计算的发展,也有望在医疗、金融、交通等关键行业释放更多创新潜力。美光科技云计算存储事业部高级副总裁Raj Narasimhan表示,HBM4是公司在存储技术创新方面的又一重要里程碑,展现了其在AI存储领域的持续领导地位。
近年来,美光持续加大在AI存储与高速缓存领域的投入,从HBM3E到HBM4的技术迭代,体现了其对AI基础设施演进趋势的精准把握。面对日益增长的AI算力需求,美光正通过不断优化产品结构和技术路线,巩固其在全球AI生态中的关键角色。
美光表示,此次推出的HBM4基于成熟的1β DRAM制程,并采用先进的12层封装技术,具备内建自我测试(MBIST)功能,能够为下一代人工智能平台提供高效、稳定的内存解决方案。该产品预计将在2026年实现大规模量产,以配合客户AI平台的扩展节奏。
作为当前AI加速器最重要的存储架构之一,HBM4相较上一代HBM3E,在性能和能效方面均有显著提升。其2048位接口设计,使得单个存储堆叠的数据传输速率超过2.0TB/s,较前代提升超过60%。这将有助于提升大型语言模型和链式推理系统的运行效率,使AI加速器具备更快的响应速度与更强的处理能力。
同时,美光延续了其在HBM3E时代建立的能效优势,HBM4在相同工作负载下进一步降低功耗,整体能源效率提升超过20%,为数据中心带来更高的运算密度和更低的运营成本。
随着生成式人工智能应用场景不断拓展,HBM4的推出不仅将推动服务器与云端计算的发展,也有望在医疗、金融、交通等关键行业释放更多创新潜力。美光科技云计算存储事业部高级副总裁Raj Narasimhan表示,HBM4是公司在存储技术创新方面的又一重要里程碑,展现了其在AI存储领域的持续领导地位。
近年来,美光持续加大在AI存储与高速缓存领域的投入,从HBM3E到HBM4的技术迭代,体现了其对AI基础设施演进趋势的精准把握。面对日益增长的AI算力需求,美光正通过不断优化产品结构和技术路线,巩固其在全球AI生态中的关键角色。