Micron nu mai joacă doar rolul de furnizor ciclic de DRAM, ci devine un nod critic în ecosistemul Nvidiei. Compania a început livrările în volum ale noilor sale module HBM4 de 36 GB (12 straturi) în primul trimestru din 2026, proiectate pentru platforma Vera Rubin, cu viteze pe pin de peste 11 Gb/s și o lățime de bandă mai mare de 2,8 TB/s pe stack – aproximativ 2,3× peste HBM3E la aceeași capacitate și cu peste 20% mai bună eficiență energetică, potrivit propriilor măsurători interne. Acest salt de performanță și consum este exact ceea ce cer modelele AI cu contexte foarte lungi și procesare multimodală, care trebuie să mute volume uriașe de date fără să explodeze consumul de energie în centrele de date.

În același timp, cererea depășește confortabil oferta. Micron a comunicat că întreaga sa producție de high‑bandwidth memory pentru anul calendaristic 2026 este deja rezervată prin contracte pe termen lung, ceea ce înseamnă că HBM4 pentru anul viitor este, practic, „sold out“ înainte ca multe implementări AI să fie live. Pentru companie, asta înseamnă o vizibilitate a veniturilor neobișnuit de mare pentru un business istoric ciclic și consolidează ideea că, în următorii ani, adevăratul „walled garden“ în AI nu este doar proiectarea cipurilor, ci și accesul la suficiente stive de memorie ultra‑rapidă care să le alimenteze.
HBM4: 36 GB astăzi, 48 GB mâine și 2,8 TB/s per stack
HBM4 36 GB 12-Hi (12H) este construită pe procesul Micron 1-beta DRAM și utilizează un bus mai larg de 2048 de biți care permite un debit mai mare de 2,8 TB/s pe stivă la viteze de pin de peste 11 Gbps. Comparativ cu generația anterioară HBM3E în aceeași configurație de 36 GB 12H, aceasta reprezintă aproximativ o creștere de 2,3 ori a debitului și o îmbunătățire de peste 20% a eficienței energetice, conform măsurătorilor interne $MU ale Micron.
În plus față de varianta de 36 GB, compania a demonstrat, de asemenea, o versiune HBM4 de 48 GB 16H cu 16 straturi, pe care o livrează deja sub formă de eșantion unor clienți selectați. Adăugarea a patru straturi înseamnă o creștere de aproximativ 33% a capacității per "locație" HBM față de 36 GB 12H, menținând în același timp un debit ridicat, ceea ce este esențial pentru acceleratoarele care doresc să maximizeze atât spațiul de memorie pentru modelele gigant, cât și viteza de acces la date.
În ceea ce privește arhitectura Vera Rubin, Micron subliniază că este primul producător care produce simultan în masă un trio de componente cheie pentru această platformă: HBM4 36GB 12H, SSD-ul Micron 9650 PCIe Gen6 și modulul SOCAMM2 de 192GB. Acest lucru poziționează compania ca un partener de memorie și stocare "full-stack" pentru următorul val de clustere GPU.
Acțiunile Micron la maxime record
Piața a considerat știrea HBM4 drept o confirmare a faptului că Micron este unul dintre principalii câștigători structurali ai ciclului IA. În urma anunțului privind producția în masă a unui HBM4 36GB 12H pentru Nvidia la GTC 2026, acțiunile au crescut și au continuat să crească de atunci. Apoi, marți, prețul acțiunilor a ajuns la 465 de dolari.
Dar chiar mai importantă decât mișcarea prețurilor pe termen scurt este perspectiva. Micron a confirmat că toată producția HBM pentru întregul an calendaristic 2026 a fost deja pre-vândută în cadrul contractelor pe termen lung, oferind companiei o vizibilitate fără precedent atât asupra veniturilor, cât și asupra marjelor. Comentariile analiștilor subliniază faptul că o astfel de vânzare înseamnă de facto o afacere blocată pentru următoarele 22 de luni, inclusiv în ceea ce privește prețurile și volumele, și face ca segmentul memoriei să treacă de la faza sa tradițional ciclică la una în care cererea de memorie AI depășește oferta pe termen lung.
Conform unor estimări, Micron intenționează să investească până la aproximativ 200 de miliarde de dolari în extinderea capacității DRAM și HBM în următorii câțiva ani pentru a răspunde cererii pe termen lung pentru infrastructura IA. Unele analize sugerează că, cu o capacitate HBM vândută integral, o marjă brută de aproximativ 68% și un EPS de peste 8 dolari în anul fiscal 2026, acțiunile ar putea fi încă evaluate în mod conservator, având în vedere profilul său de creștere.
Luptă dură: SK Hynix, Samsung și cursa pentru HBM4
Dar Micron nu este singură în cursa pentru HBM4. SK Hynix, în special, domină piața, urmată de Samsung $SSNLF, iar piața HBM4 pentru Nvidia $NVDA se transformă rapid într-o luptă acerbă pentru fiecare wafer. Conform UBS și presei sud-coreene, SK Hynix ar putea prelua aproximativ 70% din cota de aprovizionare cu HBM4 pentru platforma Rubin a NVIDIA până în 2026, Micron și Samsung fiind actori mai mici, dar în creștere rapidă.
Datele Counterpoint Research pentru piața HBM în al treilea trimestru al anului 2025 arată că SK Hynix deține aproximativ 53-55% din piață, Samsung 27-35% și Micron aproximativ 11%. Samsung, între timp, a anunțat că intenționează să crească capacitatea HBM cu aproximativ 47-50% până la sfârșitul anului 2026, la aproximativ 250 000 de plachete pe lună, față de aproximativ 170 000 în prezent, și a subliniat că clienții apreciază competitivitatea performanței și eficiența energetică a cipurilor sale HBM4.
Potrivit TweakTown și altor surse, Nvidia a solicitat tuturor furnizorilor săi cheie - SK Hynix, Samsung și Micron - să furnizeze cipuri HBM4 16-Hi până în al patrulea trimestru al anului 2026, urmând ca livrările în masă de HBM4 12-Hi să înceapă la începutul anului 2026. Rezultatul acestei selecții va afecta modul în care cotele HBM4 vor fi împărțite între cele trei firme în a doua jumătate a deceniului.
Ce urmează?
Micron privește deja dincolo de orizontul HBM4. Compania a declarat că intenționează să eșantioneze HBM4E în a doua jumătate a anului 2026, o generație care ar trebui să crească în continuare atât debitul, cât și eficiența energetică și să împingă standardul pentru acceleratoarele GPU și AI și mai sus. În paralel, dezvoltarea modulelor HBM4 16-Hi se accelerează - după cum indică livrările de eșantioane solicitate până la sfârșitul anului 2026 - ceea ce va duce capacitățile de stocare și mai sus de 48 GB în prezent.
În plus față de HBM, Micron își extinde, de asemenea, portofoliul pentru infrastructura AI:
Micron 9650 PCIe Gen6 SSD - primul SSD PCIe 6.0 pentru centre de date în producție de volum, cu o performanță de citire secvențială de până la două ori mai mare decât Gen5, o eficiență cu 100% mai bună per watt și optimizare pentru sarcini de lucru AI bazate pe agenți pe arhitectura NVIDIA BlueField-4 STX.
SOCAMM2 de 192 GB - Un modul de memorie pentru servere cu consum redus de energie și densitate ridicată, proiectat pentru inferența AI și alte aplicații cu utilizare intensivă a datelor, de asemenea acum în producție de volum.
Această combinație de HBM4, SSD-uri high-end și module de server înseamnă că Micron se profilează ca un furnizor cheie nu doar de "memorie brută", ci de întregul nivel de memorie și stocare al centrelor de date AI, de la modulele GPU la stocare.