HBM: la revolución del gran ancho de banda que reconfigura el panorama de los semiconductores de memoria

Impulsados por el rápido auge de la inteligencia artificial, la informática de alto rendimiento y los centros de datos en la nube, los sistemas de memoria tradicionales se enfrentan a retos sin precedentes. El rendimiento de los procesadores sigue creciendo exponencialmente, pero las velocidades de transferencia de datos han tenido dificultades para mantener el ritmo, creando un "cuello de botella de ancho de banda" que limita el rendimiento general del sistema. Como respuesta, HBM (memoria de gran ancho de banda) . Al utilizar un empaquetado apilado en 3D e interfaces de bus ultraanchas, la HBM aumenta enormemente el ancho de banda de transferencia de datos por vatio de potencia. Ahora se considera una de las tecnologías clave capaces de superar los límites del rendimiento de la memoria.

article HBM market and status review header img HBM: La revolución del gran ancho de banda que reconfigura el panorama de los semiconductores de memoria

Tecnología y arquitectura de HBM

HBM se diferencia de la memoria DDR tradicional en su TSV 3D (vía a través del silicio) Diseño de interconexión vertical. Varias DRAM se apilan verticalmente y se conectan a través de vías de silicio. A continuación, se empaquetan junto con una matriz lógica (normalmente una GPU o un acelerador de IA) en un intercalador de silicio. Este diseño acorta drásticamente las rutas de señal, lo que permite velocidades de transferencia mucho mayores con un menor consumo de energía. Por el contrario, DDR4 y DDR5 siguen utilizando el cableado paralelo convencional de las placas de circuito impreso, en el que un mayor aumento del ancho de banda conlleva mayores costes de energía e integridad de la señal.

CaracterísticaHBMDDR4DDR5
ConexiónApilamiento vertical de TSVCableado paralelo PCBCableado paralelo PCB
EmbalajeEmpaquetado junto con el chip lógico (2,5D)Módulo separadoMódulo separado
Velocidad por clavija~2 Gbps~3,2 Gbps~6,4 Gbps
Ancho de banda total (por pila)256 GB/s (HBM2) - 1 TB/s (HBM3E)~25 GB/s~50 GB/s
Eficiencia energéticaAltaMedioMedio-alto
AplicacionesHPC, IA, GPU, RedesPCs, ServidoresPCs, Servidores

En 2025, la tecnología HBM habrá avanzado hasta HBM3Eque ofrecen hasta 24 GB por pila y anchos de banda que alcanzan 1,2 TB/s. La próxima generación, HBM4se espera que utilice un chiplet + intercalador activo para una mayor integración y eficiencia térmica.

oscoo 2b banner 1400x475 1 HBM: la revolución del gran ancho de banda que está cambiando el panorama de los semiconductores de memoria

Panorama de la industria: Oligopolio y barreras técnicas

El HBM es extremadamente difícil de fabricar. Los principales retos son Rendimiento del apilamiento 3D, precisión del embalaje, disipación del calor y fabricación de intercaladores. Como resultado, el mercado mundial está muy concentrado, dominado por tres grandes productores de memorias:

EmpresaCuota de mercado (aprox.)Producto principalClientes clave
SK hynix50%+HBM3 / HBM3ENVIDIA, AMD, Intel
Samsung35%HBM2E / HBM3AMD, Google, Amazon
Micron10-15%HBM2E / HBM3NVIDIA, Meta, Tesla

Mientras tanto, las empresas de Japón y Taiwán (como Kioxia, Nanya y Winbond) aún se encuentran en fases de I+D y llevan un retraso de dos a tres generaciones en su comercialización. En China continental, CXMT y YMTC han iniciado los primeros proyectos de HBM, pero debido a la limitada capacidad de envasado avanzado y a la dependencia de equipos importados, no se espera una producción a gran escala en breve.

Este "oligopolio técnico" otorga un enorme poder de fijación de precios a unas pocas empresas. De 2023 a 2025, las GPU H100, H200 y Blackwell de NVIDIA impulsaron una demanda explosiva de HBM, lo que se tradujo en beneficios récord para SK hynix y una oferta mundial ajustada.

mercado mundial de memorias de gran ancho de banda HBM: la revolución del gran ancho de banda que está reconfigurando el panorama de las memorias para semiconductores

Dinámica del mercado: HBM impulsa la economía informática y de IA

La formación en IA como principal motor de crecimiento

Con el auge de la IA generativa y los grandes modelos de lenguaje, la HBM se ha convertido en un complemento esencial para las GPU. La H100 de NVIDIA utiliza 80 GB de HBM3 con 3,35 TB/s de ancho de banda, mientras que la nueva GPU Blackwell utiliza HBM3E con el doble de capacidad y hasta 8 TB/s de ancho de banda total. Esto significa que el ancho de banda de memoria necesario para el entrenamiento de IA se ha multiplicado casi por diez desde 2020. El rendimiento de la HBM ahora determina directamente la eficiencia de la GPU, lo que la convierte en un factor central de la competitividad de los chips.

Subida de precios y escasez de oferta

El auge del mercado de IA ha hecho que los precios de las HBM se disparen más de 60% entre 2024 y 2025. SK hynix ha estado operando a plena capacidad, a menudo incapaz de satisfacer la demanda. Dado que la producción de HBM consume capacidad de empaquetado avanzada, algunas líneas de DDR5 se han trasladado a HBM, lo que ha hecho subir los precios generales de la memoria.

Nuevos participantes y expansión de la cadena de suministro

Empresas de envasado avanzado como TSMC, ASEy Samsung están ampliando las líneas de producción de CoWoS e InFO. Los proveedores de equipos EDA y de pruebas, incluidos Cadencia, Synopsysy KLA - están desarrollando herramientas de verificación e inspección para DRAM 3D. Todo el ecosistema está madurando rápidamente.

El impacto de las HBM en los mercados tradicionales de memoria

El auge de HBM no es un hecho aislado. Está reconfigurando todo el ecosistema de la memoria y repercutiendo profundamente en los mercados de DDR y GDDR.

La DDR se desplaza hacia los segmentos de gama media y servidores

Dado que la HBM encaja mejor en los sistemas de alto rendimiento, los PC de consumo y los servidores básicos seguirán utilizando DDR4/DDR5. Sin embargo, a medida que los servidores de IA se conviertan en la principal fuente de crecimiento de la demanda, la cuota de mercado de DDR se reducirá. Según TrendForce, la adopción de HBM en los centros de datos podría superar los 35% en 2026. La DDR4 desaparecerá rápidamente, mientras que la DDR5 alcanzará la madurez.

Cuota de mercado prevista por aplicación (2025-2027)

Aplicación202520262027
IA / HPCHBM → 70%80%85%
Servidores generalesDDR5 → 70%65%60%
PC / ConsumidoresDDR4 → 60%45%30%
Memoria GPUMezcla DDR6 / HBMTransición a HBMHBM convencional

Los fabricantes de DDR entran en la "segunda transformación"

Los fabricantes de memorias tradicionales como Micron y Samsung están cambiando de estrategia. Están aumentando la inversión en HBM y la capacidad de empaquetado avanzado, al tiempo que reposicionan la DDR como producto de gama media y baja para mercados sensibles a los costes. Así pues, las memorias HBM se han convertido tanto en un nuevo motor de crecimiento como en una fuerza que reconfigura la competencia empresarial.

Perspectivas de futuro: HBM4 y la era de los chiplets

En los próximos cinco años, HBM se fusionará cada vez más con arquitecturas de chiplets. HBM4que se espera para 2026-2027, podría ofrecer un ancho de banda superior a 2 TB/s mediante intercaladores activos, alcanzando nuevos niveles de eficiencia energética.

Hoja de ruta de la tecnología HBM

GeneraciónAñoApilar capasCapacidad (por pila)Ancho de banda (GB/s)Aplicación principal
HBM1201544 GB128GPU
HBM2201788 GB256HPC
HBM2E2020816 GB460IA / 5G
HBM320231224 GB819Formación en IA
HBM3E20251624 GB1200LLMs, HPC
HBM42027*16+32 GB O MÁS2000+Chiplet SoC

Al mismo tiempo, fabricantes de chips como NVIDIA, AMDy Intel están explorando una mayor integración de la HBM directamente en los módulos informáticos, fusionando computación y memoria en uno solo. Esta tendencia está desdibujando los límites entre memoria, caché y almacenamiento, allanando el camino para un nuevo concepto de arquitectura conocido como "Memory-as-Compute".

El punto de inflexión de la revolución de la memoria

HBM es algo más que un nuevo tipo de memoria: es la fuerza motriz de la próxima era de la informática. Simboliza el cambio de la industria de una "compute primero" a un "ancho de banda primero" paradigma. En IA, conducción autónoma, simulación y computación en la nube, el HBM seguirá ampliando su alcance, convirtiéndose en una métrica crítica para el rendimiento. Sin embargo, su elevado coste, su compleja fabricación y su concentrada cadena de suministro también introducen nuevos riesgos. Equilibrar el rendimiento con la asequibilidad sigue siendo el mayor reto de la industria. En los próximos años, a medida que HBM4 y HBM5 podemos entrar en una era en la que la propia memoria se convierte en el núcleo de la potencia de cálculo - y HBM estará en el centro mismo de esa revolución.

Ir arriba

Contáctenos

Rellene el siguiente formulario y en breve nos pondremos en contacto con usted.

Formulario de contacto Producto