标题摘要内容
【检测信息】HBM之父:看好高带宽闪存技术,未来AI产业或从GPU转向内存主导
来源:澎湃新闻 | 作者:AI小生 | 发布时间: 2026-04-01 | 26 次浏览 | 🔊 点击朗读正文 ❚❚ | 分享到:

有着“HBM(高带宽内存)之父”之称的韩国教授认为,AI(人工智能)计算主导权正在从GPU转向内存。

近日,据韩媒报道,被称为“HBM之父”的韩国科学技术院电气与电子工程学院教授金正浩表示,AI芯片格局即将发生根本性变化,当前由英伟达主导、以GPU为核心的体系,最终转变为受内存主导的架构。

随着AI从生成式模型迈向Agentic AI(智能体)时代,内存正成为关键的发展制约因素。金正浩指出,这一转变可被概括为“上下文工程(context engineering)”的兴起,AI需要同时处理海量文档、视频及多模态数据。

金正浩表示,为支撑这一趋势,内存带宽与容量需实现最高达1000倍的提升,方能保障系统的速度与准确性。当输入规模扩大100至1000倍时,内存需求可能呈指数级增长,最高甚至达到百万倍。

在此背景下,金正浩指出,当前通过堆叠DRAM(动态随机存储器)以实现超高带宽的HBM产品,或难以满足智能体时代的需求。作为下一代路径,他重点看好HBF(High Bandwidth Flash,高带宽闪存)技术。作为一种新型存储技术,HBF方案通过堆叠NAND闪存来替代DRAM,构建类似“巨型书架”的长期存储体系,从而在容量上实现数量级跃升。

金正浩进一步表示,AI产业的权力格局或将因此发生转移,由GPU向内存倾斜。尽管现阶段计算架构仍以GPU和CPU为核心,但未来的系统将围绕超大容量内存(如HBM与HBF)构建,处理器则更像是嵌入其中的组件。

这一构想在产业界已有初步体现。今年2月,SK海力士在提交至电气与电子工程师学会(IEEE)的论文中提出了“H3架构”,混合配置HBM高带宽内存与HBF高带宽闪存,论文表示,HBF与HBM 相比,带宽相当、容量更大、访问延迟更长、写入耐久更差、功耗更高,因此H3将HBF作为HBM的“二级扩展”,HBF存储只读数据、HBM则负责其余数据。

金正浩认为,HBF工程样品预计将在2027年前后问世,谷歌、英伟达或AMD等厂商最快可能于2028年开始采用该技术。此外,围绕HBF的竞赛或将重演HBM时代的格局,三星电子与SK海力士有望再度正面交锋。