在人工智能、高性能计算和云数据中心迅速崛起的推动下,传统内存系统正面临着前所未有的挑战。处理器性能继续呈指数级增长,但数据传输速度却难以跟上--这就形成了 "带宽瓶颈",限制了系统的整体性能。对此 HBM(高带宽内存) 应运而生。通过使用三维堆叠封装和超宽总线接口,HBM 极大地提高了每瓦功率的数据传输带宽。现在,它已被视为能够突破内存性能极限的关键技术之一。
HBM 的技术和架构
HBM 与传统 DDR 内存的不同之处在于 3D TSV(硅通孔) 垂直互连设计。多个 DRAM 芯片垂直堆叠并通过硅通孔连接,然后与逻辑芯片(通常是 GPU 或人工智能加速器)一起封装在硅中间件上。这种设计大大缩短了信号路径,以更低的功耗实现更高的传输速度。相比之下 DDR4 和 DDR5 在这种情况下,进一步提高带宽会带来更高的功率和信号完整性成本。
| 特点 | HBM | DDR4 | DDR5 |
|---|---|---|---|
| 连接 | TSV 垂直堆叠 | PCB 并行布线 | PCB 并行布线 |
| 包装 | 与逻辑芯片共同封装(2.5D) | 独立模块 | 独立模块 |
| 每针速度 | ~2 Gbps | ~3.2 Gbps | ~6.4 Gbps |
| 总带宽(每个堆栈) | 256 GB/秒(HBM2)- 1 TB/秒(HBM3E) | ~25 GB/s | ~50 GB/s |
| 功率效率 | 高 | 中型 | 中-高 |
| 应用 | 高性能计算、人工智能、图形处理器、网络 | 个人电脑、服务器 | 个人电脑、服务器 |
截至 2025 年,HBM 技术已发展到 HBM3E每个堆栈最多可提供 24 GB,带宽可达 1.2 TB/s。下一代 HBM4预计将使用 芯片组 + 有源内插件 架构,实现更高的集成度和热效率。
行业格局:寡头垄断和技术壁垒
HBM 极难制造。主要挑战包括 三维堆叠产量、封装精度、散热和插层制造。 因此,全球市场高度集中,由三大内存生产商主导:
| 公司名称 | 市场份额(约) | 核心产品 | 主要客户 |
|---|---|---|---|
| SK hynix | 50%+ | HBM3 / HBM3E | 英伟达™(NVIDIA®)、AMD、英特尔 |
| 三星 | 35% | HBM2E / HBM3 | AMD、谷歌、亚马逊 |
| 美光 | 10-15% | HBM2E / HBM3 | 英伟达™(NVIDIA®)、Meta、特斯拉 |
与此同时,日本和台湾的公司(如 Kioxia、Nanya 和 Winbond)仍处于研发阶段,在商业化方面仍落后两到三代。在中国大陆、 CXMT 和 YMTC 已经启动了早期的 HBM 项目,但由于先进的包装能力有限,而且依赖进口设备,大规模生产预计不会很快实现。
这种 "技术寡头垄断 "给少数几家公司带来了巨大的定价权。从 2023 年到 2025 年,英伟达™(NVIDIA®)的 H100、H200 和 Blackwell GPU 推动了对 HBM 的爆炸性需求,导致 SK hynix 利润创下新高,全球供应紧张。
市场动态:HBM 推动人工智能和计算经济发展
人工智能培训是增长的主要驱动力
随着生成式人工智能和大型语言模型的兴起,HBM 已成为 GPU 的重要伴侣。英伟达的 H100 使用 80 GB 的 HBM3,带宽为 3.35 TB/s,而新的 Blackwell GPU 使用的 HBM3E 容量是其两倍,总带宽高达 8 TB/s。这意味着,自 2020 年以来,人工智能训练所需的内存带宽增长了近 10 倍。HBM 性能现在直接决定了 GPU 的效率,使其成为芯片竞争力的核心因素。
价格飙升和供应短缺
人工智能市场的蓬勃发展导致 HBM 的价格在 2024 年至 2025 年间飙升了 60% 以上。SK hynix 一直在满负荷运转,经常无法满足需求。由于 HBM 生产需要消耗先进的封装能力,一些 DDR5 生产线已经转向 HBM,从而推高了普通内存的价格。
新进入者和供应链扩展
先进包装公司,如 台积电, ASE和 三星 正在扩大 CoWoS 和 InFO 生产线。EDA 和测试设备供应商,包括 节奏, Synopsys和 科军 - 正在开发 3D DRAM 的验证和检测工具。整个生态系统正在迅速成熟。
HBM 对传统内存市场的影响
HBM 的崛起并非孤立事件。它正在重塑整个内存生态系统,并对 DDR 和 GDDR 市场产生深远影响。
DDR 向中端和服务器市场转移
由于 HBM 最适合高性能系统,消费类 PC 和基本服务器将继续使用 DDR4/DDR5。然而,随着人工智能服务器成为需求增长的主要来源,DDR 的市场份额将会缩小。根据 TrendForce 的预测,到 2026 年,数据中心的 HBM 采用量可能会超过 35%。DDR4 将迅速被淘汰,而 DDR5 则会过渡成熟。
按应用预测的市场份额(2025-2027 年)
| 应用 | 2025 | 2026 | 2027 |
|---|---|---|---|
| 人工智能/高性能计算 | HBM → 70% | 80% | 85% |
| 普通服务器 | DDR5 → 70% | 65% | 60% |
| 个人电脑/消费者 | DDR4 → 60% | 45% | 30% |
| GPU 内存 | DDR6 / HBM 混合 | 向 HBM 过渡 | 主流 HBM |
DDR 制造商进入 "第二次转型 "阶段
传统的内存制造商,如 美光 和 三星 正在转变战略。它们正在增加 HBM 投资和提高先进封装能力,同时将 DDR 重新定位为面向成本敏感型市场的中低端产品。因此,HBM 已成为新的增长引擎和重塑企业竞争格局的力量。
未来展望:HBM4 和芯片时代
在未来五年中,HBM 将越来越多地与 芯片组架构. HBM4预计在 2026-2027 年左右,通过有源插层,带宽可超过 2 TB/s,能效达到新的水平。
HBM 技术路线图
| 一代人 | 年份 | 堆叠层 | 容量(每堆) | 带宽(GB/秒) | 主要应用 |
|---|---|---|---|---|---|
| HBM1 | 2015 | 4 | 4 GB | 128 | GPU |
| HBM2 | 2017 | 8 | 8 GB | 256 | 高性能计算 |
| HBM2E | 2020 | 8 | 16 GB | 460 | 人工智能/5G |
| HBM3 | 2023 | 12 | 24 GB | 819 | 人工智能培训 |
| HBM3E | 2025 | 16 | 24 GB | 1200 | 法学硕士、高性能计算 |
| HBM4 | 2027* | 16+ | 32 GB+ | 2000+ | Chiplet SoC |
与此同时,芯片制造商如 英伟达, AMD和 英特尔 正在探索将 HBM 直接更紧密地集成到计算模块上,将计算和内存融为一体。这种趋势模糊了内存、高速缓存和存储之间的界限,为一种新的架构概念--HBM--铺平了道路。 "记忆即计算"
记忆革命的转折点
HBM 不仅仅是一种新的内存类型,它还是下一个计算时代的驱动力。它标志着整个行业从 "传统 "向 "创新 "的转变。 "计算优先" 至 "带宽优先" 范例。在人工智能、自动驾驶、模拟和云计算领域,HBM 的应用范围将继续扩大,并成为衡量性能的关键指标。然而,其高昂的成本、复杂的制造工艺和集中的供应链也带来了新的风险。如何在性能和经济性之间取得平衡仍然是行业面临的最大挑战。未来几年,随着 HBM4 和 HBM5 我们可能会进入这样一个时代 内存本身成为计算能力的核心 - 而 HBM 将是这场革命的核心。





