HBM与HBF协同发力,AI存储迎来“速度+容量”黄金时代
* 来源 : * 作者 : admin * 发表时间 : 2025-11-11
在人工智能大模型迅猛发展的推动下,存储技术正从幕后走向台前。被誉为“高带宽内存(HBM)之父”的韩国科学技术院教授金正浩近期指出,AI时代的性能瓶颈已从图形处理器(GPU)转向存储系统,而新一代高带宽闪存(HBF)的出现,正在加速这一趋势的演进。
HBF并非要取代HBM,而是与其形成互补。HBM凭借超高速带宽,成为AI训练等高实时性任务的“速度担当”;而HBF则融合3D NAND闪存的高密度优势与HBM的堆叠架构,采用8至16层垂直封装、硅通孔(TSV)及微凸点技术,将逻辑芯片与存储阵列紧密集成,实现对多个NAND子阵列的并行访问。这使其成为专为AI推理优化的“容量王者”,可完整容纳百亿甚至千亿参数的大语言模型,显著缓解当前GPU因频繁从硬盘加载数据而高达60%–70%的空闲等待问题。
实测数据显示,在运行4050亿参数的LLaMA 3.1模型时,HBF方案性能仅比理想HBM低2.2%;单张GPU搭载8个HBF堆叠模块即可提供4TB存储空间,是纯HBM方案的20倍以上,真正实现“单卡即推理”。该技术还可广泛应用于超长上下文大模型推理、多模态AI处理、自动驾驶等边缘计算场景,以及训练过程中的检查点存储,大幅缩短模型恢复时间。
产业界已迅速行动。西数(SanDisk)与SK海力士于2024年8月签署合作备忘录,共同制定HBF技术标准,计划2026年下半年推出首批样品,2027年初实现商用;SK海力士已在2025年OCP峰会上展示集成HBF的AIN系列产品;三星启动HBF早期概念设计,聚焦数据中心应用;铠侠则开发出5TB容量、64GB/s带宽的HBF原型,美光等国际大厂亦高度关注。
金正浩预测,2027至2028年将是HBF商业化爆发的关键窗口期,并可能重塑全球存储与AI产业格局。他甚至推测,英伟达或通过收购西数、美光等存储厂商,掌握HBF核心技术,减少对韩国供应链的依赖。
更长远看,未来AI存储将形成四层架构:SRAM用于笔记本电脑和台式机的缓存,HBM如同“书架”提供高速访问,HBF作为“地下图书馆”承载海量模型参数,云存储则扮演“公共图书馆”角色。其中,HBF作为AI模型的深层知识库,持续向HBM输送数据,有望彻底突破“内存墙”限制,大幅降低大模型部署门槛。
机构预计,到2027年,HBF将催生一个规模达万亿元级别的新赛道。随着存储从GPU的“配角”转变为决定AI系统性能的“核心引擎”,一场由容量与速度共同驱动的技术革命已然开启。
HBF并非要取代HBM,而是与其形成互补。HBM凭借超高速带宽,成为AI训练等高实时性任务的“速度担当”;而HBF则融合3D NAND闪存的高密度优势与HBM的堆叠架构,采用8至16层垂直封装、硅通孔(TSV)及微凸点技术,将逻辑芯片与存储阵列紧密集成,实现对多个NAND子阵列的并行访问。这使其成为专为AI推理优化的“容量王者”,可完整容纳百亿甚至千亿参数的大语言模型,显著缓解当前GPU因频繁从硬盘加载数据而高达60%–70%的空闲等待问题。
实测数据显示,在运行4050亿参数的LLaMA 3.1模型时,HBF方案性能仅比理想HBM低2.2%;单张GPU搭载8个HBF堆叠模块即可提供4TB存储空间,是纯HBM方案的20倍以上,真正实现“单卡即推理”。该技术还可广泛应用于超长上下文大模型推理、多模态AI处理、自动驾驶等边缘计算场景,以及训练过程中的检查点存储,大幅缩短模型恢复时间。
产业界已迅速行动。西数(SanDisk)与SK海力士于2024年8月签署合作备忘录,共同制定HBF技术标准,计划2026年下半年推出首批样品,2027年初实现商用;SK海力士已在2025年OCP峰会上展示集成HBF的AIN系列产品;三星启动HBF早期概念设计,聚焦数据中心应用;铠侠则开发出5TB容量、64GB/s带宽的HBF原型,美光等国际大厂亦高度关注。
金正浩预测,2027至2028年将是HBF商业化爆发的关键窗口期,并可能重塑全球存储与AI产业格局。他甚至推测,英伟达或通过收购西数、美光等存储厂商,掌握HBF核心技术,减少对韩国供应链的依赖。
更长远看,未来AI存储将形成四层架构:SRAM用于笔记本电脑和台式机的缓存,HBM如同“书架”提供高速访问,HBF作为“地下图书馆”承载海量模型参数,云存储则扮演“公共图书馆”角色。其中,HBF作为AI模型的深层知识库,持续向HBM输送数据,有望彻底突破“内存墙”限制,大幅降低大模型部署门槛。
机构预计,到2027年,HBF将催生一个规模达万亿元级别的新赛道。随着存储从GPU的“配角”转变为决定AI系统性能的“核心引擎”,一场由容量与速度共同驱动的技术革命已然开启。






关闭返回