Legenda AMD wspomoże SanDiska. To może odmienić rynek
Całkiem możliwe, że czeka nas rewolucja w świecie kart graficznych oraz akceleratorów sztucznej inteligencji. Wszystko za sprawą pamięci HBF.

Raja Koduri, związany wcześniej z działami graficznymi w AMD i Intelu, ogłosił nowy etap swojej kariery - dołącza do zespołu doradczego SanDisk, znanego producenta na rynku pamięci. Firma ta planuje skoncentrować się na rozwoju technologii HBF, która ma zapewnić nową jakość w zakresie pojemności VRAM dla akceleratorów AI.
Obecne 192 GB VRAM może wzrosnąć do zawrotnych 4 TB
O współpracy poinformował zarówno Koduri we wpisie na platformie X (daw. Twitter), jak i SanDisk w oficjalnym komunikacie prasowym. Ma ona wykorzystać wieloletnie doświadczenie pierwszego z wymienionych oraz ambicje Amerykanów do zaoferowania rozwiązania lepszego niż dotychczasowa technologia HBM.



Chociaż HBM znacznie się rozwinęło w ostatnich latach i wykorzystywane jest przez wszystkich dużych graczy - AMD, Intel, NVIDIA - w świecie układów AI, to wciąż nie nadąża za rosnącymi wymaganiami modeli sztucznej inteligencji. HBF, wykorzystujące tzw. TSV (Through-Silicon Vias), ma pozwolić na tworzenie pamięci o pojemności liczonych w terabajtach.
Excited to partner with Sandisk.
— Raja Koduri (@RajaXg) July 24, 2025
When we began HBM development our focus was improving bandwidth/watt and bandwidth/mm^2 (both important constraints for mobile), while maintaining competitive capacity with the incumbent solutions. With HBF the focus is to increase memory…
Według zapowiedzi, pojedynczy stos HBF może osiągać pojemność na poziomie 1 TB, a osiem takich stosów w jednym akceleratorze umożliwi uzyskanie nawet 4 TB VRAM, zachowując przy tym wysoką przepustowość porównywalną z HBM. Dla porównania obecnie najwydajniejsze rozwiązania dla centrów AI oferują maksymalnie do 192 GB.
Warto jednak zaznaczyć, że rozwiązanie opracowywane przez SanDisk nie ma na celu bezpośredniego konkurowania z DRAM w zadaniach wymagających niskich opóźnień. Operacje AI, takie jak wnioskowanie czy rozwój dużych modeli językowych, bardziej potrzebują ogromnej pojemności i przepustowości niż minimalnych opóźnień.