我们生活在一个由人工智能驱动的时代。像 ChatGPT 或 Sora 这样的大型模型正在重塑各行各业。然而,这些模型有着巨大的 "胃口";其庞大的参数对计算和存储系统提出了严峻的挑战。当芯片计算速度很快,但数据供应跟不上时,就会形成所谓的 "内存墙 "瓶颈。高带宽闪存技术正是为了打破这堵墙,以更经济的成本为人工智能系统注入强大动力而诞生的关键创新技术。
什么是 HBF?它如何实现 "两全其美"?
高带宽闪存并不是一种全新的存储介质,而是一种巧妙的架构创新。其核心理念是将 3D NAND 闪存 HBF 闪存采用了我们日常生活中常见的先进封装和互连技术(用于手机和固态硬盘),而 HBM 则常用于高性能计算。简而言之,HBF 的目标是使大容量、低成本闪存的数据传输速度接近高端内存,从而实现容量、带宽和成本之间的理想平衡。实现这一目标主要依靠两大技术突破。
首先是 3D 堆叠和 TSV 互联技术。 HBM 的成功之处在于利用硅通孔(Through-Silicon Vias)将多个 DRAM 芯片像积木一样垂直堆叠,通过微小的垂直通道实现高速通信。HBF 借鉴了这一概念,实现了多个 NAND 闪存芯片的高密度堆叠。这种设计大大缩短了芯片内部的数据传输路径,提高了集成密度,并为高带宽奠定了基础。
第二个也是更关键的突破是并行子阵列架构。 传统的 NAND 闪存虽然容量大,但能同时读写数据的通道数量有限。这就好比一条宽阔的马路,入口和出口都很少,容易造成拥堵。HBF 对闪存的核心结构进行了创新,将其划分为大量可独立并行工作的存储子阵列。每个子阵列都有自己独立的读/写通道。当成百上千个这样的子阵列同时工作时,就相当于把一条单行道的公路扩展成一个拥有成千上万条车道的高速网络,让数据洪流畅通无阻,从而实现总带宽的飞跃。
为了更清楚地说明 HBF 的独特定位,下表将其主要特性与其 "前辈 "HBM 和传统 NAND 固态硬盘进行了比较:
| 特征 | HBF | HBM | 传统 NAND 固态硬盘 |
|---|---|---|---|
| 核心优势 | 高容量、高带宽、低成本 | 极高带宽、超低延迟 | 容量大,成本低 |
| 每个堆栈/芯片的典型容量 | 最高 512GB | 约 24-48GB | 1TB-2TB |
| 带宽级别 | 非常高,接近 HBM | 极端 | 相对较低 |
| 单位成本 | 相对较低 | 非常高 | 非常低 |
| 最佳应用 | 人工智能推理、阅读密集型任务 | 人工智能培训、高性能计算 | 数据存储、存档 |
这种比较直观地表明,HBF 恰好填补了 HBM 与 HBM 之间的市场空白。 传统固态硬盘.它不具备 HBM 的超低延迟和极高写入速度,但却能提供更大的容量和更低的成本。与传统的固态硬盘相比,它的带宽高出几个数量级,非常适合需要快速读取海量数据的场景。
技术特点、优势和挑战
高带宽闪存的价值在于其独特的技术特性组合,这些特性决定了其当前的能力和主要应用方向。高带宽闪存并非无所不能,但在其专业领域却表现出色。通过对比高带宽闪存的优势和挑战,我们可以清楚地了解高带宽闪存的现状。
HBF 的三大核心优势
巨大的产能和成本优势: 在相同的物理空间内,单个 HBF 堆栈可提供高达 512GB 的容量,是 HBM 的 10 倍以上。基于单位成本更低的 NAND 闪存,它可以显著降低人工智能系统的总拥有成本。 读取带宽高,能效高: 通过并行架构,其读取带宽可接近 HBM 水平,满足人工智能推理等任务对快速数据读取的需求。同时,其静态功耗远低于需要不断刷新的 DRAM。 准确的市场定位: 它准确地填补了 HBM 与传统固态硬盘之间的空白,为对容量和成本敏感的读取密集型应用提供了理想的解决方案。
HBF 面临的主要挑战
写入速度和耐力限制: 这些都是 NAND 闪存的固有特性。HBF 的写入速度比 HBM 慢得多,而且其芯片的擦除/写入周期有限。因此,它不适合需要频繁写入数据的人工智能模型训练场景。 更高的访问延迟: 其访问延迟为微秒级。虽然这对许多读取任务影响不大,但仍远高于 HBM 的纳秒级延迟,无法处理对延迟极为敏感的应用。
总之,对 HBF 现状的准确理解是:它是一种高性能存储解决方案,针对读取密集型任务进行了优化。它不是 HBM 的替代品,而是一种强大的补充。其价值在于扬长避短,解决具体问题。
HBF 的未来展望
根据其特点 "容量大、读取带宽高、成本低、写入耐久性有限"。 HBF 的未来发展道路非常清晰。它不会取代 HBM 在培训领域的地位,但会开辟自己的利基市场,并与现有技术形成互补的生态系统。
核心应用场景
HBF 的杀手级应用主要集中在以下几个方向:
人工智能边缘推理服务器 这是 HBF 最理想、最有前景的应用场景。在边缘服务器上部署人工智能模型进行推理涉及的工作负载几乎都是纯读取操作,经常调用预训练的模型参数。这完全符合 HBF 读取带宽高、容量大的优势,同时避免了写入速度慢、耐用性有限的弱点。此外,HBF 的低功耗非常适合对能源敏感的边缘环境。
利用 HBM 形成异构或混合内存架构。 在云数据中心,HBF 可以作为 HBM 的有效容量扩展。在这种模式中,HBM 充当高速缓存,保存当前计算最急需的 "热数据",而完整的海量人工智能模型则存储在 HBF 中。然后,模型参数的不同部分会根据需要从 HBF 高速预取到 HBM。这种组合在性能、容量和总成本之间实现了极具吸引力的平衡。
展望未来,预计 HBF 技术将逐步应用于 终端用户设备。 随着人工智能个人电脑和高端智能手机需要更强的本地人工智能功能,集成 HBF 可使这些设备在本地运行更大的参数模型,从而减少对云计算的依赖,更好地保护用户隐私。
技术开发和工业化进程
在技术开发方面,领先企业已经规划了清晰的路线图。例如 闪迪 计划通过三代产品的不断迭代,目标包括进一步将单芯片容量提高到 512GB 以上,将读取带宽在现有基础上翻一番,同时持续优化能效。
工业化进程也已开始。与 SK 海力士 与 SandDisk 的合作标志着 HBF 从研发走向产业化的关键一步。业界普遍预计,HBF 模块样品将于 2026 年下半年面世,首批集成 HBF 的人工智能推理服务器预计将于 2027 年初正式亮相。市场分析师预测,到 2030 年,HBF 有可能成长为一个价值数百亿美元的市场。虽然其规模可能小于 HBM,但它将成为人工智能基础设施不可或缺的一部分。
总之,HBF 的未来在于成为人工智能存储生态系统中的关键一环。它的发展将紧紧围绕读取密集型任务,逐步为从云到边缘的下一代人工智能应用赋能。





