Huawei opracowuje własne pamięci. Mają być lepsze niż HBM
Państwo Środka się nie poddaje. Mimo ograniczenia dostępu do akceleratorów AI oraz najnowszych technologii, szykowane są własne rozwiązania.

Według doniesień chińskich mediów Huawei pracuje nad nowym typem pamięci do pracy ze sztuczną inteligencją, który ma być alternatywą dla obecnych modułów HBM. Ma to zmniejszyć zależność od zagranicznych technologii, które dostarczane są głównie przez koreańskie SK hynix i Samsunga oraz amerykańską firmę Micron.
Aktualnie NVIDIA nadal pozostaje liderem rynku AI
Jak na razie szczegóły techniczne nie zostały ujawnione. Ale dostępne informację zdradzają, że nie będą to typowe kości montowane na akceleratorach sztucznej inteligencji. Huawei chce stworzyć specjalistyczne SSD do centrów danych, zoptymalizowane pod kątem obciążeń AI.



Biorąc pod uwagę dostępne transfery i opóźnienia dla kontrolerów PCI Express 5.0 x4 (a nawet przyszłych PCIe 6.0 x4), taki krok wydaje się być ślepą uliczką. Zaletą ma być jednak brak dotychczasowych barier dotyczących pojemności, co pozwoli na tańsze używanie dużych LLM.
Równolegle Huawei zaprezentowało oprogramowanie UCM (Unified Cache Manager), które pozwala przyspieszyć trenowanie modeli językowych poprzez optymalne zarządzanie pamięcią HBM ze wsparciem DRAM i SSD. Dzięki temu możliwe jest rozszerzenie efektywnego wykorzystania pamięci w obciążeniach AI bez konieczności stosowania najnowszych modułów HBM.
Mimo, że w ostatnich latach Huawei intensywnie rozbudowuje swoje portfolio sprzętu AI, to ich rozwiązania nadal są mniej wydajne i bardziej prądożerne niż nawet kilkuletnie układy NVIDII. W efekcie wiele chińskich firm i tak sięga po droższe karty graficzne i akceleratory od Zielonych.