L'aube De L'Ère Hbm4 : Micron En Course Pour Dominer La Frontière De La Mémoire Ia
Heure de mise à jour: juin 16, 2025 Lectorat: 30
10 juin 2024 – Micron Technology a officiellement annoncé avoir livré des échantillons techniques de sa mémoire HBM4 (empilée en 12 couches) d'une capacité de 36 Go à plusieurs clients clés. Cette étape marque une nouvelle phase pour ses produits à haute bande passante (HBM), offrant une puissance de calcul accrue pour les futures plateformes d’accélération de l’IA.
La nouvelle mémoire HBM4 repose sur le procédé de fabrication 1β (1-bêta) mature de Micron et des puces DRAM de 24 Gb, avec un empilement de 12 couches et une interface 2048 bits. Elle atteint une bande passante par pile supérieure à 2,0 To/s, soit une amélioration de plus de 60 % par rapport à la génération précédente (HBM3E), tout en réduisant la consommation d’énergie de plus de 20 %. Elle intègre également une fonction avancée de MBIST (autotest intégré), optimisant l’échange de données avec les xPU logiques, ce qui accélère l’inférence IA et améliore le contrôle énergétique.
Micron précise que le HBM4 est conçu pour s’intégrer parfaitement dans les futurs systèmes d’IA, en particulier pour les grands modèles linguistiques et les charges de travail intensives en calcul dans les data centers. La société prévoit d’augmenter sa production de HBM4 d’ici 2026, en phase avec les lancements de plateformes IA de ses clients, afin de soutenir la transformation numérique dans des secteurs comme la santé, la finance et les transports.
Le marché du HBM4 est très concurrentiel : SK Hynix a déjà livré des échantillons à NVIDIA et vise une production en masse dès 2024. Samsung, utilisant une technologie DRAM 1c, prévoit de finaliser ses tests d’ici le troisième trimestre. Bien que légèrement en retard sur SK Hynix, Micron devance Samsung et se rapproche des leaders du secteur.
Raj Narasimhan, vice-président senior de la division Cloud Memory chez Micron, déclare : « Les performances, la bande passante élevée et l’efficacité énergétique du HBM4 illustrent notre innovation continue dans les technologies mémoire. Nous continuerons à soutenir nos clients dans l’ère de l’IA générative grâce à notre portefeuille de solutions mémoire et de stockage avancées. »
Le lancement du HBM4 renforce la position de Micron dans le domaine des mémoires pour l’IA et annonce une nouvelle ère pour l’industrie des semi-conducteurs, orientée vers une intégration 3D plus dense et écoénergétique. Avec la croissance exponentielle des modèles d’IA, les solutions de stockage haute vitesse et basse consommation deviennent cruciales pour surmonter les goulots d’étranglement. Le HBM4, grâce à ses progrès en bande passante, efficacité et procédés d’empilement, offre un socle robuste pour l’IA générative, les grands modèles linguistiques et les réseaux neuronaux graphiques.
Par ailleurs, son déploiement stimulera l’écosystème des semi-conducteurs, notamment les technologies d’empilement avancé (comme le CoWoS de TSMC ou l’I-Cube de Samsung), les substrats PCB haute performance et les équipements de test, accélérant ainsi la course vers des solutions plus intégrées et moins énergivores.
En termes de concurrence, bien que SK Hynix et Samsung conservent un avantage en matière de délais et de finesse de gravure, Micron réduit l’écart grâce à ses innovations et collaborations clients. D’ici 2026, lorsque le HBM4 entrera en production de masse, le marché des mémoires pour l’IA pourrait connaître un rééquilibrage.
Une chose est sûre : dans l’ère du calcul piloté par l’IA, la mémoire haute bande passante sera le moteur des sauts de performance, et le HBM4 représente une étape clé dans cette course technologique.
-
Page suivante
120 Milliards, Le Semi-Conducteur Père Wolfspeed Est En Faillite
Selon le wall street journal, Wolfspeed, le leader américain des plaquettes en carbure de silicium, est sur le point de faire faillite. A l’annonce, les actions de la société ont chuté de 60% en une nuit mercredi, en tête de la liste des actions américaines en baisse....
Heure de mise à jour: juin 03, 2025