HBM: A revolução da alta largura de banda que está remodelando o cenário da memória de semicondutores

Impulsionados pelo rápido crescimento da inteligência artificial, da computação de alto desempenho e dos centros de dados na nuvem, os sistemas de memória tradicionais estão a enfrentar desafios sem precedentes. O desempenho do processador continua a crescer exponencialmente, mas as velocidades de transferência de dados têm tido dificuldade em acompanhar - criando um "estrangulamento da largura de banda" que limita o desempenho geral do sistema. Em resposta, HBM (memória de alta largura de banda) nasceu. Ao usar o empacotamento 3D empilhado e interfaces de barramento ultra-amplas, o HBM aumenta muito a largura de banda de transferência de dados por watt de energia. Atualmente, ele é visto como uma das principais tecnologias capazes de romper os limites do desempenho da memória.

article HBM market and status review header img HBM: A revolução da alta largura de banda que está remodelando o cenário da memória de semicondutores

A tecnologia e a arquitetura da HBM

O HBM difere da memória DDR tradicional em sua 3D TSV (Through-Silicon Via) conceção de interconexão vertical. Múltiplas matrizes DRAM são empilhadas verticalmente e ligadas através de vias de silício, sendo depois embaladas em conjunto com uma matriz lógica (normalmente uma GPU ou um acelerador de IA) num interpositor de silício. Esta conceção encurta drasticamente os caminhos de sinal, permitindo velocidades de transferência muito mais elevadas com menor consumo de energia. Em contraste, DDR4 e DDR5 continuam a utilizar a cablagem paralela convencional de PCB, em que o aumento da largura de banda acarreta custos mais elevados de potência e de integridade do sinal.

CaraterísticaHBMDDR4DDR5
LigaçãoEmpilhamento vertical de TSVCablagem paralela da placa de circuito impressoCablagem paralela da placa de circuito impresso
EmbalagemCo-embalado com matriz lógica (2,5D)Módulo separadoMódulo separado
Velocidade por pino~2 Gbps~3,2 Gbps~6,4 Gbps
Largura de banda total (por pilha)256 GB/s (HBM2) - 1 TB/s (HBM3E)~25 GB/s~50 GB/s
Eficiência energéticaElevadoMédioMédio-alto
AplicaçõesHPC, IA, GPU, RedesPCs, servidoresPCs, servidores

A partir de 2025, a tecnologia HBM avançou para HBM3Eoferecendo até 24 GB por pilha e larguras de banda que atingem 1,2 TB/s. A próxima geração, HBM4, espera-se que utilize um chiplet + interpositor ativo para uma integração e eficiência térmica ainda maiores.

oscoo 2b banner 1400x475 1 HBM: A revolução de alta largura de banda que está remodelando o cenário da memória de semicondutores

Panorama do sector: Oligopólio e barreiras técnicas

A HBM é extremamente difícil de fabricar. Os principais desafios incluem Rendimento de empilhamento 3D, precisão de empacotamento, dissipação de calor e fabrico de interpositores. Consequentemente, o mercado global é altamente concentrado, dominado por três grandes produtores de memórias:

EmpresaQuota de mercado (aprox.)Produto principalPrincipais clientes
SK hynix50%+HBM3 / HBM3ENVIDIA, AMD, Intel
Samsung35%HBM2E / HBM3AMD, Google, Amazon
Micron10-15%HBM2E / HBM3NVIDIA, Meta, Tesla

Entretanto, as empresas do Japão e de Taiwan (como a Kioxia, a Nanya e a Winbond) ainda se encontram em fases de I&D e continuam duas a três gerações atrasadas na comercialização. Na China continental, CXMT e YMTC iniciaram os primeiros projectos HBM, mas devido à limitada capacidade de embalagem avançada e à dependência de equipamento importado, não se espera que a produção em grande escala se realize em breve.

Este "oligopólio técnico" dá um enorme poder de fixação de preços a algumas empresas. De 2023 a 2025, as GPUs H100, H200 e Blackwell da NVIDIA impulsionaram uma demanda explosiva por HBM, resultando em lucros recordes para a SK hynix e oferta global restrita.

mercado global de memória de alta largura de banda HBM: A revolução da alta largura de banda remodelando o cenário da memória de semicondutores

Dinâmica de mercado: HBM alimenta a economia de IA e computação

A formação em IA como principal motor de crescimento

Com o aumento da IA generativa e dos grandes modelos de linguagem, o HBM tornou-se um companheiro essencial para as GPUs. A H100 da NVIDIA usa 80 GB de HBM3 com largura de banda de 3,35 TB/s, enquanto a nova GPU Blackwell usa HBM3E com o dobro da capacidade e até 8 TB/s de largura de banda total. Isto significa que a largura de banda de memória necessária para o treino de IA aumentou quase dez vezes desde 2020. O desempenho do HBM agora determina diretamente a eficiência da GPU - tornando-o um fator central na competitividade do chip.

Aumento de preços e escassez de oferta

O mercado de IA em expansão fez com que os preços do HBM aumentassem mais de 60% entre 2024 e 2025. A SK hynix tem estado a funcionar a plena capacidade, muitas vezes incapaz de satisfazer a procura. Como a produção de HBM consome uma capacidade de embalagem avançada, algumas linhas de DDR5 foram transferidas para HBM, aumentando os preços da memória em geral.

Novos operadores e expansão da cadeia de abastecimento

Empresas de embalagens avançadas, tais como TSMC, ASEe Samsung estão a expandir as linhas de produção de CoWoS e InFO. Os fornecedores de equipamento de EDA e de ensaio - incluindo Cadência, Synopsyse KLA - estão a desenvolver ferramentas de verificação e inspeção para DRAM 3D. Todo o ecossistema está a amadurecer rapidamente.

O impacto da HBM nos mercados tradicionais de memória

A ascensão do HBM não é um evento isolado. Ele está remodelando todo o ecossistema de memória e tendo efeitos profundos nos mercados de DDR e GDDR.

A DDR está a orientar-se para os segmentos de gama média e de servidores

Como o HBM se encaixa melhor em sistemas de alto desempenho, os PCs de consumo e servidores básicos continuarão a usar DDR4/DDR5. No entanto, à medida que os servidores de IA se tornam a principal fonte de crescimento da procura, a quota de mercado da DDR irá diminuir. De acordo com a TrendForce, a adoção de HBM em centros de dados pode exceder 35% até 2026. A DDR4 será rapidamente eliminada, enquanto a DDR5 entra na maturidade.

Quota de mercado prevista por aplicação (2025-2027)

Aplicação202520262027
IA / HPCHBM → 70%80%85%
Servidores geraisDDR5 → 70%65%60%
PC / ConsumidorDDR4 → 60%45%30%
Memória GPUMistura de DDR6 / HBMTransição para a HBMHBM convencional

Os fabricantes de DDR entram na "Segunda Transformação"

Fabricantes de memórias tradicionais como Micron e Samsung estão a mudar de estratégia. Elas estão aumentando o investimento em HBM e a capacidade de empacotamento avançado, ao mesmo tempo em que reposicionam a DDR como um produto de gama média a baixa para mercados sensíveis ao custo. A HBM tornou-se, assim, tanto um novo motor de crescimento como uma força que está a remodelar a concorrência empresarial.

Perspectivas futuras: HBM4 e a era do chiplet

Nos próximos cinco anos, a HBM irá se fundir cada vez mais com arquitecturas de chiplets. HBM4prevista para 2026-2027, poderá fornecer uma largura de banda superior a 2 TB/s através de interpositores activos, atingindo novos níveis de eficiência energética.

Roteiro da tecnologia HBM

GeraçãoAnoCamadas de pilhaCapacidade (por pilha)Largura de banda (GB/s)Aplicação principal
HBM1201544 GB128GPU
HBM2201788 GB256HPC
HBM2E2020816 GB460IA / 5G
HBM320231224 GB819Formação em IA
HBM3E20251624 GB1200LLMs, HPC
HBM42027*16+32 GB+2000+Chiplet SoC

Ao mesmo tempo, fabricantes de chips como NVIDIA, AMDe Intel estão explorando uma maior integração do HBM diretamente nos módulos de computação, combinando computação e memória em um só. Esta tendência está a esbater as fronteiras entre memória, cache e armazenamento - abrindo caminho para um novo conceito de arquitetura conhecido como "Memória como computação".

O ponto de viragem da revolução da memória

O HBM é mais do que apenas um novo tipo de memória - ele é a força motriz por trás da próxima era da computação. Ele simboliza a mudança da indústria de um "computar primeiro" para um "largura de banda em primeiro lugar" paradigma. Em IA, condução autónoma, simulação e computação em nuvem, a HBM continuará a expandir o seu alcance, tornando-se uma métrica crítica para o desempenho. No entanto, seu alto custo, fabricação complexa e cadeia de suprimentos concentrada também introduzem novos riscos. Equilibrar desempenho com acessibilidade continua sendo o maior desafio do setor. Nos próximos anos, como HBM4 e HBM5 emergir, podemos entrar numa era em que a própria memória torna-se o núcleo do poder de computação - e a HBM estará no centro desta revolução.

Deslocar para o topo

Contacte-nos

Preencha o formulário abaixo e entraremos em contacto em breve.

Formulário de contacto Produto