Impulsionados pelo rápido crescimento da inteligência artificial, da computação de alto desempenho e dos centros de dados na nuvem, os sistemas de memória tradicionais estão a enfrentar desafios sem precedentes. O desempenho do processador continua a crescer exponencialmente, mas as velocidades de transferência de dados têm tido dificuldade em acompanhar - criando um "estrangulamento da largura de banda" que limita o desempenho geral do sistema. Em resposta, HBM (memória de alta largura de banda) nasceu. Ao usar o empacotamento 3D empilhado e interfaces de barramento ultra-amplas, o HBM aumenta muito a largura de banda de transferência de dados por watt de energia. Atualmente, ele é visto como uma das principais tecnologias capazes de romper os limites do desempenho da memória.
A tecnologia e a arquitetura da HBM
O HBM difere da memória DDR tradicional em sua 3D TSV (Through-Silicon Via) conceção de interconexão vertical. Múltiplas matrizes DRAM são empilhadas verticalmente e ligadas através de vias de silício, sendo depois embaladas em conjunto com uma matriz lógica (normalmente uma GPU ou um acelerador de IA) num interpositor de silício. Esta conceção encurta drasticamente os caminhos de sinal, permitindo velocidades de transferência muito mais elevadas com menor consumo de energia. Em contraste, DDR4 e DDR5 continuam a utilizar a cablagem paralela convencional de PCB, em que o aumento da largura de banda acarreta custos mais elevados de potência e de integridade do sinal.
| Caraterística | HBM | DDR4 | DDR5 |
|---|---|---|---|
| Ligação | Empilhamento vertical de TSV | Cablagem paralela da placa de circuito impresso | Cablagem paralela da placa de circuito impresso |
| Embalagem | Co-embalado com matriz lógica (2,5D) | Módulo separado | Módulo separado |
| Velocidade por pino | ~2 Gbps | ~3,2 Gbps | ~6,4 Gbps |
| Largura de banda total (por pilha) | 256 GB/s (HBM2) - 1 TB/s (HBM3E) | ~25 GB/s | ~50 GB/s |
| Eficiência energética | Elevado | Médio | Médio-alto |
| Aplicações | HPC, IA, GPU, Redes | PCs, servidores | PCs, servidores |
A partir de 2025, a tecnologia HBM avançou para HBM3Eoferecendo até 24 GB por pilha e larguras de banda que atingem 1,2 TB/s. A próxima geração, HBM4, espera-se que utilize um chiplet + interpositor ativo para uma integração e eficiência térmica ainda maiores.
Panorama do sector: Oligopólio e barreiras técnicas
A HBM é extremamente difícil de fabricar. Os principais desafios incluem Rendimento de empilhamento 3D, precisão de empacotamento, dissipação de calor e fabrico de interpositores. Consequentemente, o mercado global é altamente concentrado, dominado por três grandes produtores de memórias:
| Empresa | Quota de mercado (aprox.) | Produto principal | Principais clientes |
|---|---|---|---|
| SK hynix | 50%+ | HBM3 / HBM3E | NVIDIA, AMD, Intel |
| Samsung | 35% | HBM2E / HBM3 | AMD, Google, Amazon |
| Micron | 10-15% | HBM2E / HBM3 | NVIDIA, Meta, Tesla |
Entretanto, as empresas do Japão e de Taiwan (como a Kioxia, a Nanya e a Winbond) ainda se encontram em fases de I&D e continuam duas a três gerações atrasadas na comercialização. Na China continental, CXMT e YMTC iniciaram os primeiros projectos HBM, mas devido à limitada capacidade de embalagem avançada e à dependência de equipamento importado, não se espera que a produção em grande escala se realize em breve.
Este "oligopólio técnico" dá um enorme poder de fixação de preços a algumas empresas. De 2023 a 2025, as GPUs H100, H200 e Blackwell da NVIDIA impulsionaram uma demanda explosiva por HBM, resultando em lucros recordes para a SK hynix e oferta global restrita.
Dinâmica de mercado: HBM alimenta a economia de IA e computação
A formação em IA como principal motor de crescimento
Com o aumento da IA generativa e dos grandes modelos de linguagem, o HBM tornou-se um companheiro essencial para as GPUs. A H100 da NVIDIA usa 80 GB de HBM3 com largura de banda de 3,35 TB/s, enquanto a nova GPU Blackwell usa HBM3E com o dobro da capacidade e até 8 TB/s de largura de banda total. Isto significa que a largura de banda de memória necessária para o treino de IA aumentou quase dez vezes desde 2020. O desempenho do HBM agora determina diretamente a eficiência da GPU - tornando-o um fator central na competitividade do chip.
Aumento de preços e escassez de oferta
O mercado de IA em expansão fez com que os preços do HBM aumentassem mais de 60% entre 2024 e 2025. A SK hynix tem estado a funcionar a plena capacidade, muitas vezes incapaz de satisfazer a procura. Como a produção de HBM consome uma capacidade de embalagem avançada, algumas linhas de DDR5 foram transferidas para HBM, aumentando os preços da memória em geral.
Novos operadores e expansão da cadeia de abastecimento
Empresas de embalagens avançadas, tais como TSMC, ASEe Samsung estão a expandir as linhas de produção de CoWoS e InFO. Os fornecedores de equipamento de EDA e de ensaio - incluindo Cadência, Synopsyse KLA - estão a desenvolver ferramentas de verificação e inspeção para DRAM 3D. Todo o ecossistema está a amadurecer rapidamente.
O impacto da HBM nos mercados tradicionais de memória
A ascensão do HBM não é um evento isolado. Ele está remodelando todo o ecossistema de memória e tendo efeitos profundos nos mercados de DDR e GDDR.
A DDR está a orientar-se para os segmentos de gama média e de servidores
Como o HBM se encaixa melhor em sistemas de alto desempenho, os PCs de consumo e servidores básicos continuarão a usar DDR4/DDR5. No entanto, à medida que os servidores de IA se tornam a principal fonte de crescimento da procura, a quota de mercado da DDR irá diminuir. De acordo com a TrendForce, a adoção de HBM em centros de dados pode exceder 35% até 2026. A DDR4 será rapidamente eliminada, enquanto a DDR5 entra na maturidade.
Quota de mercado prevista por aplicação (2025-2027)
| Aplicação | 2025 | 2026 | 2027 |
|---|---|---|---|
| IA / HPC | HBM → 70% | 80% | 85% |
| Servidores gerais | DDR5 → 70% | 65% | 60% |
| PC / Consumidor | DDR4 → 60% | 45% | 30% |
| Memória GPU | Mistura de DDR6 / HBM | Transição para a HBM | HBM convencional |
Os fabricantes de DDR entram na "Segunda Transformação"
Fabricantes de memórias tradicionais como Micron e Samsung estão a mudar de estratégia. Elas estão aumentando o investimento em HBM e a capacidade de empacotamento avançado, ao mesmo tempo em que reposicionam a DDR como um produto de gama média a baixa para mercados sensíveis ao custo. A HBM tornou-se, assim, tanto um novo motor de crescimento como uma força que está a remodelar a concorrência empresarial.
Perspectivas futuras: HBM4 e a era do chiplet
Nos próximos cinco anos, a HBM irá se fundir cada vez mais com arquitecturas de chiplets. HBM4prevista para 2026-2027, poderá fornecer uma largura de banda superior a 2 TB/s através de interpositores activos, atingindo novos níveis de eficiência energética.
Roteiro da tecnologia HBM
| Geração | Ano | Camadas de pilha | Capacidade (por pilha) | Largura de banda (GB/s) | Aplicação principal |
|---|---|---|---|---|---|
| HBM1 | 2015 | 4 | 4 GB | 128 | GPU |
| HBM2 | 2017 | 8 | 8 GB | 256 | HPC |
| HBM2E | 2020 | 8 | 16 GB | 460 | IA / 5G |
| HBM3 | 2023 | 12 | 24 GB | 819 | Formação em IA |
| HBM3E | 2025 | 16 | 24 GB | 1200 | LLMs, HPC |
| HBM4 | 2027* | 16+ | 32 GB+ | 2000+ | Chiplet SoC |
Ao mesmo tempo, fabricantes de chips como NVIDIA, AMDe Intel estão explorando uma maior integração do HBM diretamente nos módulos de computação, combinando computação e memória em um só. Esta tendência está a esbater as fronteiras entre memória, cache e armazenamento - abrindo caminho para um novo conceito de arquitetura conhecido como "Memória como computação".
O ponto de viragem da revolução da memória
O HBM é mais do que apenas um novo tipo de memória - ele é a força motriz por trás da próxima era da computação. Ele simboliza a mudança da indústria de um "computar primeiro" para um "largura de banda em primeiro lugar" paradigma. Em IA, condução autónoma, simulação e computação em nuvem, a HBM continuará a expandir o seu alcance, tornando-se uma métrica crítica para o desempenho. No entanto, seu alto custo, fabricação complexa e cadeia de suprimentos concentrada também introduzem novos riscos. Equilibrar desempenho com acessibilidade continua sendo o maior desafio do setor. Nos próximos anos, como HBM4 e HBM5 emergir, podemos entrar numa era em que a própria memória torna-se o núcleo do poder de computação - e a HBM estará no centro desta revolução.





