一.HBM存储芯片简介
HBM(High Bandwidth Memory,高带宽内存) 是一种基于3D堆叠技术的DRAM(动态随机存取存储器)解决方案,专为满足高性能计算、人工智能(AI)、图形处理及数据中心等领域对内存带宽和容量的极致需求而设计。通过垂直堆叠多个DRAM芯片,并利用硅通孔(TSV)和微凸块(Microbump)技术实现高速互联,HBM在有限的空间内实现了超高带宽、低功耗和高集成度的完美结合,成为突破传统内存性能瓶颈的关键技术。
内存:它是计算机中用于临时存放数据的部件,相当于手机的“运行内存”(RAM)。CPU或GPU需要处理数据时,会先从硬盘调到内存里,再进行高速运算。
带宽:你可以把它想象成一条高速公路的“通车能力”。带宽越高,意味着单位时间内能有更多的数据车辆在这条路上通行。
高带宽:因此,HBM的核心目标就是打造一条超级宽阔、通行能力极强的“数据高速公路”,确保像GPU这样的“超级计算引擎”永远不会因为“数据供应不上”而闲着。
一、技术原理与核心优势
1.3D堆叠架构
HBM通过垂直堆叠多层DRAM芯片(通常4-16层),每层容量可达2-24GB,形成高密度存储单元。这种设计不仅大幅提升了内存容量,还通过缩短数据传输路径(相比传统2D DRAM减少70%)降低了信号延迟和功耗。

2.硅通孔(TSV)技术
TSV在硅芯片中垂直贯穿导电通路,连接不同层次的电路,实现芯片间的高速数据传输。这一技术突破了传统平面布局的限制,使HBM的带宽远超传统DDR内存。

TSV工艺流程
3.超宽数据总线
HBM采用2048位接口(如HBM4),每个通道包含64位DDR数据总线,支持32个独立通道并行工作。这种设计使HBM4的单堆栈带宽高达2TB/s,是DDR5内存的300倍以上,可在1秒内处理230部全高清电影。
4. 智能控制器与低功耗
HBM集成内存管理引擎,支持自适应预取、电压频率协同优化等功能,单bit能耗低至0.08pJ。相比GDDR6内存,HBM的单位带宽功耗降低至1/3,适合长时间高负载计算。

二.HBM 制造工艺流程
HBM 制造工艺包括 TSV、Bumping 和堆叠等工艺环节。HBM 是由多个 DRAM die 堆叠而 成,利用硅通孔(TSV)和微凸块(Microbump)将 die 之间相连接,多层 DRAM die 再与 最下层的 Base die连接,然后通过凸块(Bump)与硅中阶层(interposer)互联。HBM与 GPU、CPU 或 ASIC 共同铺设在硅中阶层上,通过 CoWoS 等 2.5D 封装工艺相互连接,硅 中介层通过 Cu Bump 连接至封装基板(Package Substrate)上,最后封装基板再通过锡 球与下方的 PCB 基板相连。

1..概念提出与标准化(2011-2013)
2011年:AMD与SK海力士开始合作,旨在为下一代图形处理需求开发一种新型高带宽内存。
2013年:JEDEC(固态技术协会)正式发布了HBM的第一个标准——JESD235,为后续发展奠定了基础。
2.第一代HBM(HBM1)诞生(2015)
堆叠:最多4个DRAM核心堆叠在一个基础层上。
带宽:每堆栈128GB/s(每引脚1Gbps)。
容量:每堆栈最高1GB(4-Hi堆叠,每层2Gb)。
接口:1024位宽总线
标志性产品:首次应用于AMD的Radeon R9 Fury X系列显卡和NVIDIA的Tesla P100加速计算卡。
3.第二代HBM(HBM2)成为主流(2016-2018)
堆叠:最高8个DRAM核心堆叠。
带宽:每堆栈最高256GB/s(每引脚2Gbps)。
容量:每堆栈最高8GB(8-Hi堆叠,每层8Gb)。
主要改进:提升了容量、带宽和良率。
标志性产品:成为NVIDIA Tesla V100、GV100以及AMD Radeon Vega系列显卡的核心配置,确立了在高端GPU市场的地位。
4.第三代HBM(HBM2E)性能飞跃(2020-至今)
带宽:每堆栈最高461GB/s(SK海力士)甚至超过500GB/s(三星,每引脚3.6Gbps)。
容量:每堆栈最高16GB(16Gb核心,8-Hi堆叠)。
主要改进:进一步大幅提升数据传输速率和单堆栈容量。
应用:成为NVIDIA A100、H100,以及英特尔Habana Gaudi2等AI训练和数据中心GPU的标配。
5.第四代HBM(HBM3)与未来(2022-未来)
带宽:每堆栈最高819GB/s(每引脚6.4Gbps)。
容量:每堆栈最高24GB(12-Hi堆叠,24Gb核心)甚至更高。
特性:支持通道架构优化,提高了能效和可靠性。
现状:已应用于NVIDIA H100、AMD MI300系列等最新AI加速器。HBM3E作为增强版,正在被推向市场,性能将进一步突破。
6.第五代HBM3E
带宽:1.2TB
容量:从HBM2的8Gb提升至HBM3E的24Gb,单层容量增长2倍。
特性:动态电压频率调整(DVFS)技术,2.5D/3D封装技术,支持混合键合与局部硅互连(LSI)技术,提升信号传输效率与系统可靠性.引入MR-MUF封装技术,通过增加硅通孔(TSV)数量与优化散热材料,降低结温15℃以上。
现状:第五代HBM仍处于研发与试产阶段,但头部厂商已展开激烈竞争,推动技术快速迭代与商业化落地。
7.第六代HBM4
带宽:第六代HBM的接口速率预计突破1.2Tbps/堆叠,单颗芯片带宽可达1.5TB/s以上(前代HBM3E约为1TB/s)。若以8颗HBM组成的GPU内存子系统计算,总带宽可超12TB/s。
容量:从HBM3的8层/12层堆叠,升级至第六代HBM的12层/16层堆叠,单颗芯片容量可达64GB(前代HBM3E为24GB)。采用更先进的制程工艺(如1β nm),单层DRAM容量从16Gb提升至24Gb,进一步放大堆叠效应。第六代HBM的总容量可达512GB,较前代(192GB)提升167%
特性:采用电源门控技术与动态电压频率调整(DVFS),第六代HBM的功耗较前代降低约20%,第六代HBM将DRAM芯片与逻辑芯片(如内存控制器)集成于单一封装内,大幅缩小PCB面积,提升系统集成度,引入先进散热材料与智能温控算法,第六代HBM在高速运行时的结温较前代降低15℃以上。
现状;第六代HBM仍处于研发与试产阶段,但头部厂商已展开激烈竞争,三星与SK海力士的领先布局,美光的追赶策略.
想象一个大型物流仓库(GPU)需要从周围的货架(内存)上取货(数据):
1. 传统内存(如GDDR)—— “平面停车场 + 普通公路”
布局:内存芯片(货架)并排平铺在GPU(仓库)周围的PCB板(地皮)上。
取货方式:每个内存芯片都有自己的一条不算太宽的公路(32位或64位总线)连接到仓库。虽然每条路车速可以很快(高频率),但路本身不宽,一次能并排通行的卡车(数据)有限。
问题:当仓库处理能力极强,需要海量货物时,这些“普通公路”就会发生拥堵,仓库不得不停工等待。这就是“内存墙”。
2. HBM高带宽内存 —— “立体自动化仓库 + 双向十六车道高速”
布局:
立体堆叠:HBM把货架做成了摩天大楼。多个内存芯片(DRAM Die)像楼层一样垂直堆叠起来,通过内部的微型电梯(TSV,硅通孔) 连接。
紧邻而建:这座“内存摩天大楼”就紧挨着“GPU主仓库”建造
取货方式:
超宽接口:在“大楼”和“仓库”之间,直接修建了一条双向十六车道(1024位或2048位总线)的超高速路,而不是多条普通公路。
极短距离:因为紧挨着,这条路非常短,数据“卡车”瞬间可达。
结果:货物(数据)可以从立体仓库的任意楼层,通过内部电梯快速集中,然后瞬间通过超宽高速路洪流般地送入GPU仓库。效率天差地别。

HBM产业链涵盖上游的材料和设备厂商,中游的IDM厂商,下游的CPU/GPU/TPU等厂商。上游设备商主要提供生产HBM所需的原材料和设备,如硅晶圆、光刻机、刻蚀机等,参与厂商包括应用材料、泛林、法国液化空气、科磊等。中游制造商则负责将原材料加工成HBM芯片,包括晶圆制造、切割、封装等环节,参与厂商为三星、海力士和美光等。下游则主要是HBM芯片的应用领域,如数据中心、AI芯片、固态硬盘等,参与厂商包括英伟达、AMD和谷歌等。



AI服务器需求的激增正直接推动HBM市场进入高速增长期。2024年,HBM的市场总收入达到174亿美元,同比增长219%。在市场份额上,SK海力士占据了54%,三星紧随其后,占39%,而美光则占了7%。据长城证券研报,预计2025年及2026年,HBM的总位元需求量同比增速将分别达到89%和67%,呈现出爆发式增长态势。
与此同时,三大原厂(SK海力士、三星、美光)正在积极扩张产能。数据显示,2025年及2026年,原厂HBM TSV月产能预计将分别达到39万片和48万片。尽管产能快速提升,但高端HBM产品的供应依然紧张,特别是台积电CoWoS先进封装产能成为全球AI芯片供应的关键瓶颈,2024年月产能突破4万片仍无法满足需求。
另据据摩根大通的报告,DRAM行业正进入一个四年的上行周期。驱动此轮周期的一个关键因素是,DRAM晶圆产能正持续向HBM倾斜,预计HBM晶圆占行业总产能的比例将从2025年的19% 提升至2027年的29%。这使得传统DRAM的供应趋于紧张,从而可能支撑其价格环境。
随着中国AI产业的快速发展,对HBM的需求将持续增长,随着国产替代和产业链本土化的推进,中国对自主可控的高带宽内存需求不断扩大,预计到2029年中国HBM行业市场规模将达到12亿美元。尽管目前尚无国产企业具备HBM供给能力,但已有部分企业通过自主研发、收购等方式布局HBM产业链各环节。
从市场格局上来看,HBM的竞争主要在SK海力士、三星和美光之间展开。SK海力士、三星和美光三家巨头垄断了全球HBM市场,其中SK海力士在更先进的HBM3E产品中市占率高达62%。不仅英伟达大量采购HBM芯片,随着AMD和博通的AI加速器赢得更多客户,这些公司预计也将加大采购力度。
从技术上来看,SK海力士是目前唯一实现HBM3量产的厂商,英伟达对其大量预定订单,配置在其高性能GPU H100之中,保持领衔的市场地位;SK海力士计划在2025年下半年完成HBM4量产准备,并已向英伟达等主要客户提供样品。其12层堆叠产品预计在2026年上市,16层版本则可能在2027年问世。服务器市场份额持续领先的英特尔也在其全新第四代至强可拓展处理器中配备了SK海力士HBM产品;此外,AMD、微软、亚马逊等海外AI科技巨头相继向SK海力士申请了HBM3E样片。
然而,在AI和高性能计算需求的推动下,三星和美光并不甘人后,积极扩大其HBM4生产能力。其中,三星投资逾7000-10000亿韩元购置设备并计划额外巨资扩产,投入量产8层、12层HBM3产品,同时研发下一代HBM4,此芯片采用4纳米代工工艺生产HBM4的逻辑芯片,试图通过更先进的制程实现技术反超,预计2025年推出,专注于提升高温性能和封装技术;美光科技预计于2026年开始量产HBM4,并同步推进HBM4e开发。其HBM4产品将基于1β DRAM技术,每堆栈提供32GB容量,峰值带宽达1.64TB/s。

海外篇

SK海力士的HBM(高带宽内存)业务在全球市场中占据主导地位,其业务发展迅速,技术领先,市场份额持续扩大,已成为公司利润的核心增长点。SK海力士早在2009年前后就启动了HBM的研发工作,开启了长达16年的技术攻坚之路。2013年,SK海力士成功研发出全球首款HBM(第一代),但受限于市场环境,HBM的开发一度遭遇瓶颈。2020年,随着AI和HPC需求的增长,以及HBM市场的爆发式扩张,SK海力士凭借对HBM2E(第三代)和HBM3(第四代)的持续投入,成功实现了战略逆转,市场份额迅速提升。2023年,SK海力士成功推出36GB的12层堆叠HBM3,并正式发布HBM3E(第五代),凭借每秒1.15TB的数据处理速度,在面向AI的存储器市场中占据了主导地位。未来SK海力士已率先向客户提供了全球首款12层堆叠HBM4样品(第六代),并计划于2025年下半年正式投入量产。HBM4将具备每秒处理2TB数据的能力,性能较前一代产品提升60%。2025年第一季度,SK海力士凭借其在HBM领域的卓越表现,成功实现了对三星电子的超越,在原厂市场占比中登顶。HBM业务已成为SK海力士当前的利润核心,2025年第一季度,HBM业务占DRAM总销售额的40%以上,且利润率显著高于普通DRAM产品。SK海力士2025年的HBM产能已经“售罄”,并预计今年HBM销售额还将同比增长100%以上。


美光【MU.NASDAQ】
HBM业务以高带宽内存技术为核心,通过HBM2E、HBM3E及HBM4产品满足AI与高性能计算需求,市场份额快速扩张,技术迭代与产能布局双管齐下,成为全球HBM市场的重要竞争者。美光于2021年推出HBM2E,采用TSV硅通孔技术实现垂直堆叠,提供461GB/s的带宽,适用于AI训练与高性能计算场景。其低功耗特性(较竞品低30%)成为数据中心优化能效的关键。美光跳过HBM3,直接推出HBM3E,成为英伟达H200 GPU的独家供应商。该产品提供超1.2TB/s的带宽,24GB容量,功耗较竞品低30%,支持大规模神经网络训练与推理任务。美光已向客户交付HBM4样品,实现11Gbps的引脚速度与超2.8TB/s的带宽,采用1-gamma DRAM制程与先进封装技术,能效较上一代提升20%。HBM4将支持AI平台升级,预计2026年量产。美光HBM3E功耗较竞品低30%,通过1-gamma DRAM制程与先进封装技术,实现能效比领先。HBM4提供11Gbps引脚速度与2.8TB/s带宽,12层堆叠结构支持36GB容量,满足AI大模型对内存带宽与容量的双重需求。美光与台积电合作生产HBM4E基础逻辑芯片,支持标准版与定制版,满足客户差异化需求。美光2025年HBM产能已售罄,2026年产能基本分配完毕,目标市场份额20%-25%,挑战SK海力士与三星的垄断地位。美光研发投入聚焦3-4纳米制程与混合键合技术,推动HBM向更高堆叠层数(16层)与更低功耗发展。


















