HBM : la révolution de la large bande passante remodèle le paysage des mémoires à semi-conducteurs

Face à l'essor de l'intelligence artificielle, de l'informatique haute performance et des centres de données en nuage, les systèmes de mémoire traditionnels sont confrontés à des défis sans précédent. Les performances des processeurs continuent de croître de manière exponentielle, mais les vitesses de transfert des données peinent à suivre, créant un "goulot d'étranglement de la bande passante" qui limite les performances globales du système. En réponse à cette situation, HBM (mémoire à grande largeur de bande) est né. Grâce à l'utilisation d'un emballage empilé en 3D et d'interfaces de bus ultra-larges, la mémoire HBM augmente considérablement la bande passante de transfert de données par watt de puissance. Elle est désormais considérée comme l'une des technologies clés capables de repousser les limites de la performance des mémoires.

article HBM market and status review header img HBM : The High-Bandwidth Revolution Reshaping the Semiconductor Memory Landscape (La révolution de la grande largeur de bande remodèle le paysage des mémoires à semi-conducteurs)

La technologie et l'architecture du HBM

La mémoire HBM se distingue de la mémoire DDR traditionnelle par les caractéristiques suivantes 3D TSV (Via à travers le silicium) conception d'interconnexion verticale. Plusieurs puces DRAM sont empilées verticalement et connectées par des vias en silicium, puis regroupées avec une puce logique (généralement un GPU ou un accélérateur d'intelligence artificielle) sur un interposeur en silicium. Cette conception raccourcit considérablement les chemins de signaux, ce qui permet des vitesses de transfert beaucoup plus élevées pour une consommation d'énergie moindre. À l'inverse, DDR4 et DDR5 utilisent encore le câblage parallèle conventionnel des circuits imprimés, où l'augmentation de la largeur de bande s'accompagne de coûts plus élevés en termes d'alimentation et d'intégrité des signaux.

FonctionnalitéHBMDDR4DDR5
ConnexionEmpilage vertical de TSVCâblage parallèle du circuit impriméCâblage parallèle du circuit imprimé
EmballageCo-packagé avec le dé logique (2.5D)Module séparéModule séparé
Vitesse par broche~2 Gbps~3,2 Gbps~6,4 Gbps
Largeur de bande totale (par pile)256 Go/s (HBM2) - 1 TB/s (HBM3E)~25 GB/s~50 GB/s
Efficacité énergétiqueHautMoyenMoyenne-élevée
ApplicationsHPC, IA, GPU, RéseauxPC, serveursPC, serveurs

En 2025, la technologie HBM aura atteint les niveaux suivants HBM3Equi offre jusqu'à 24 Go par pile et des bandes passantes atteignant 1,2 TB/s. La nouvelle génération, HBM4Il est prévu qu'il utilise un chiplet + interposeur actif pour une intégration et une efficacité thermique encore plus grandes.

oscoo 2b banner 1400x475 1 HBM : La révolution de la grande largeur de bande remodèle le paysage des mémoires à semi-conducteurs

Le paysage industriel : Oligopole et obstacles techniques

Le HBM est extrêmement difficile à fabriquer. Les principaux défis sont les suivants Rendement de l'empilage 3D, précision de l'emballage, dissipation de la chaleur et fabrication d'interposeurs. En conséquence, le marché mondial est très concentré et dominé par trois grands producteurs de mémoires :

EntreprisePart de marché (environ)Produit de basePrincipaux clients
SK hynix50%+HBM3 / HBM3ENVIDIA, AMD, Intel
Samsung35%HBM2E / HBM3AMD, Google, Amazon
Micron10-15%HBM2E / HBM3NVIDIA, Meta, Tesla

Pendant ce temps, les entreprises japonaises et taïwanaises (comme Kioxia, Nanya et Winbond) en sont encore au stade de la recherche et du développement et accusent un retard de deux à trois générations en matière de commercialisation. En Chine continentale, CXMT et YMTC ont lancé des projets HBM précoces, mais en raison d'une capacité d'emballage avancée limitée et de la dépendance à l'égard des équipements importés, la production à grande échelle n'est pas attendue pour bientôt.

Cet "oligopole technique" confère à quelques entreprises un énorme pouvoir de fixation des prix. Entre 2023 et 2025, les GPU H100, H200 et Blackwell de NVIDIA ont fait exploser la demande de HBM, ce qui a entraîné des bénéfices records pour SK hynix et une offre mondiale restreinte.

marché mondial des mémoires à large bande HBM : la révolution de la large bande modifie le paysage des mémoires à semi-conducteurs

Dynamique du marché : HBM alimente l'économie de l'IA et de l'informatique

La formation à l'IA, principal moteur de croissance

Avec l'essor de l'IA générative et des grands modèles de langage, le HBM est devenu un compagnon essentiel des GPU. Le H100 de NVIDIA utilise 80 Go de HBM3 avec une bande passante de 3,35 To/s, tandis que le nouveau GPU Blackwell utilise HBM3E avec deux fois plus de capacité et jusqu'à 8 To/s de bande passante totale. Cela signifie que la bande passante mémoire nécessaire à l'apprentissage de l'IA a presque décuplé depuis 2020. Les performances HBM déterminent désormais directement l'efficacité des GPU, ce qui en fait un facteur central de la compétitivité des puces.

Flambée des prix et pénurie de l'offre

L'essor du marché de l'IA a fait bondir les prix du HBM de plus de 60% entre 2024 et 2025. SK hynix a fonctionné à pleine capacité, mais n'a souvent pas été en mesure de répondre à la demande. Comme la production de HBM consomme des capacités d'emballage avancées, certaines lignes de DDR5 ont été transférées vers HBM, ce qui a fait grimper les prix de la mémoire générale.

Nouveaux entrants et expansion de la chaîne d'approvisionnement

Les entreprises d'emballage avancé telles que TSMC, ASEet Samsung développent leurs lignes de production CoWoS et InFO. Les vendeurs d'équipements de test et d'EDA - y compris Cadence, Synopsyset KLA - développent des outils de vérification et d'inspection pour les DRAM 3D. L'ensemble de l'écosystème évolue rapidement.

L'impact du HBM sur les marchés traditionnels de la mémoire

L'essor de la technologie HBM n'est pas un événement isolé. Elle remodèle l'ensemble de l'écosystème de la mémoire et a des effets profonds sur les marchés de la DDR et de la GDDR.

La DDR s'oriente vers les segments du milieu de gamme et des serveurs

Étant donné que le HBM convient mieux aux systèmes à haute performance, les PC grand public et les serveurs de base continueront d'utiliser les DDR4/DDR5. Toutefois, les serveurs d'intelligence artificielle devenant la principale source de croissance de la demande, la part de marché de la DDR diminuera. Selon TrendForce, l'adoption de la technologie HBM dans les centres de données pourrait dépasser 35% d'ici 2026. La DDR4 sera rapidement abandonnée, tandis que la DDR5 arrivera à maturité.

Part de marché prévue par application (2025-2027)

Application202520262027
IA / HPCHBM → 70%80%85%
Serveurs générauxDDR5 → 70%65%60%
PC / ConsommateurDDR4 → 60%45%30%
Mémoire du GPUMélange DDR6 / HBMTransition vers le HBMHBM classique

Les fabricants de DDR entrent dans la "seconde transformation

Les fabricants de mémoires traditionnels comme Micron et Samsung changent de stratégie. Elles augmentent les investissements dans le HBM et les capacités de conditionnement avancées, tout en repositionnant le DDR comme un produit de milieu ou de bas de gamme pour les marchés sensibles aux coûts. Le HBM est donc devenu à la fois un nouveau moteur de croissance et une force qui remodèle la concurrence entre les entreprises.

Perspectives d'avenir : HBM4 et l'ère du Chiplet

Au cours des cinq prochaines années, l'HBM fusionnera de plus en plus avec l'HBM. architectures de chiplets. HBM4qui devrait voir le jour vers 2026-2027, pourrait offrir une largeur de bande supérieure à 2 TB/s grâce à des intercalaires actifs, tout en atteignant de nouveaux niveaux d'efficacité énergétique.

Feuille de route de la technologie HBM

GénérationAnnéeEmpiler les couchesCapacité (par pile)Largeur de bande (GB/s)Application principale
HBM1201544 GB128GPU
HBM2201788 GO256HPC
HBM2E2020816 GO460IA / 5G
HBM320231224 GB819Formation à l'IA
HBM3E20251624 GB1200LLM, HPC
HBM42027*16+32 GB+2000+Chiplet SoC

Dans le même temps, les fabricants de puces comme NVIDIA, AMDet Intel étudient la possibilité d'intégrer plus étroitement la mémoire HBM directement dans les modules de calcul, ce qui permet de fusionner le calcul et la mémoire. Cette tendance brouille les frontières entre la mémoire, le cache et le stockage, ouvrant la voie à un nouveau concept d'architecture connu sous le nom de "La mémoire en tant qu'ordinateur".

Le tournant de la révolution de la mémoire

HBM est plus qu'un nouveau type de mémoire - c'est la force motrice de la prochaine ère de l'informatique. Elle symbolise le passage de l'industrie d'un système de mémoire à un autre. "calculer d'abord" à un "bande passante d'abord" paradigme. Dans les domaines de l'IA, de la conduite autonome, de la simulation et de l'informatique en nuage, le HBM continuera d'étendre sa portée, devenant une mesure critique de la performance. Cependant, son coût élevé, sa fabrication complexe et sa chaîne d'approvisionnement concentrée introduisent également de nouveaux risques. L'équilibre entre performance et prix abordable reste le plus grand défi de l'industrie. Dans les années à venir, comme HBM4 et HBM5 Nous pourrions entrer dans une ère où les la mémoire elle-même devient le cœur de la puissance de calcul - et HBM sera au cœur de cette révolution.

Défiler vers le haut

Nous contacter

Remplissez le formulaire ci-dessous et nous vous contacterons dans les plus brefs délais.

Formulaire de contact