SK hynix chwali się nowymi pamięciami HBM4. NVIDIA już zaciera ręce
Postęp w świecie nowych technologii nie zwalnia nawet na chwilę. Obecnie największy nacisk stawiany jest na serwery i akceleratory do pracy z AI.

SK hynix coraz szybciej ulepsza swoje rozwiązania w dziedzinie pamięci, skierowane do najbardziej zaawansowanych platform obliczeniowych - w tym wysokowydajnych centrów danych wykorzystujących akceleratory AI. Podczas trwającej właśnie konferencji GTC 2025 firma prezentuje najnowsze produkty: 12-warstwową pamięć HBM3E i HBM4 oraz moduły SOCAMM.
Samsung oraz Micron mają spore zaległości do nadrobienia
SOCAMM opracowano z myślą o potężnych układach firmy NVIDIA. Rozwiązanie to bazuje na znanej już technologii CAMM (Compression Attached Memory Module), jednak w wersji SK hynix będzie pamięcią niskonapięciową. Koreańczycy obiecują nie tylko większą pojemność i wyższą wydajność, ale także wzorową efektywność energetyczną.



Kolejną propozycją jest 12-warstwowa pamięć HBM3E, którą firma wyprodukowała dla najnowszych układów NVIDIA Blackwell GB300. Dzięki umowie na wyłączność z Zielonymi, SK hynix już dziś zdobywa przewagę nad konkurentami, takimi jak Samsung czy Micron. Z informacji udostępnionych przez producenta wynika, że masowa produkcja rozpoczęła się we wrześniu zeszłego roku, podczas gdy Samsung potrzebuje jeszcze kilku miesięcy.
SK hynix potwierdziło również prace nad kolejną generacją pamięci -12-warstowymi kośćmi HBM4, które wciąż są w fazie rozwoju ale trafiły już do pierwszych klientów, w tym do NVIDII. Według zapowiedzi nowe rozwiązanie zapewni do 36 GB pojemności w jednym stosie oraz przepustowość na poziomie aż 2 TB/s. Masowa produkcja ma się rozpocząć w drugiej połowie 2025 roku, a całość będzie korzystać z litografii 3 nm firmy TSMC.