美元换人民币  当前汇率7.27

存储新战场开启:HBF与KV缓存成AI时代关键突破口

* 来源 : * 作者 : admin * 发表时间 : 2025-11-05
随着人工智能从训练迈向大规模推理阶段,存储器的重要性正迅速超越传统认知。韩国科学技术院(KAIST)教授、被誉为“HBM之父”的金正镐近期公开指出:“AI时代的主导权,正从图形处理器(GPU)转向存储器!”他更预测,英伟达未来可能通过并购美光或西数等存储大厂,强化其在AI硬件生态中的控制力。
在此背景下,一种名为“高带宽闪存”(HBF, High Bandwidth Flash)的新型存储技术正加速崛起。HBF借鉴高带宽存储器(HBM)的3D堆叠架构,采用硅穿孔(TSV)技术将多层NAND闪存芯片垂直集成,兼具大容量与相对低成本优势。尽管NAND速度不及DRAM,但其单颗容量可达后者10倍以上,若通过数百甚至数千层堆叠,有望成为支撑大模型海量参数存储的“NAND版HBM”。
金正镐形象地将未来AI存储架构比作一座智能图书馆:GPU内部的SRAM如同桌面笔记本,速度最快但容量极小;HBM是桌边书架,用于高频数据交换;而HBF则如同地下图书馆,存储AI的深层知识库,可随时为HBM提供数据补给;云端存储则相当于公共图书馆,通过高速网络连接数据中心。他甚至断言:“HBM时代即将结束,HBF时代要来了!”
目前,全球存储巨头已纷纷入局。西数与SK海力士正携手推进HBF技术标准化,计划2026年提供样品,2027年实现量产;三星也已启动HBF产品的概念设计与初期开发,加入这场下一代存储竞赛。
与此同时,KV缓存(Key-Value Cache)作为AI推理中的“短期记忆”,正成为优化响应速度与降低延迟的关键。由于KV缓存直接影响大模型回答的流畅度,如何高效管理其在不同存储层级间的分布,已成为软硬件协同的新焦点。
面对高端存储器获取受限的现实,华为另辟蹊径,推出“统一缓存管理器”(UCM)软件方案。该工具通过智能分级调度,将KV缓存数据动态分配至HBM、标准DRAM或固态硬盘(SSD)中,无需依赖HBM即可实现高吞吐、低时延的推理体验,并显著降低每Token的推理成本。UCM架构包含连接生态、缓存加速与存储协同三层,可兼容升腾、英伟达等多种算力平台。
类似思路也出现在美国初创企业Enfabrica——该公司通过自研软件架构,在AI芯片与低成本存储之间高效调度数据,在保障性能的同时大幅压缩数据中心成本。
在AI算力持续膨胀的今天,存储瓶颈已成为制约发展的核心挑战。无论是通过HBF等硬件创新拓展容量边界,还是借助UCM类软件方案优化资源利用,全球科技企业正从多维度破局。可以预见,在GPU之外,存储器及其管理技术,将成为决定AI时代竞争力的新战场。