Nvidia rezygnuje z pierwszej generacji pamięci SOCAMM na rzecz szybszego standardu SOCAMM2

Nvidia rezygnuje z pierwszej generacji pamięci SOCAMM na rzecz szybszego standardu SOCAMM2

Według doniesień koreańskiego portalu ETNews, Nvidia zrezygnowała z wprowadzenia pierwszej generacji własnego modułu pamięci SOCAMM (System-on-Chip Attached Memory Module) i skupiła się na rozwoju nowej wersji – SOCAMM2.

Portal powołuje się na anonimowe źródła branżowe, które twierdzą, że prace nad SOCAMM1 zostały wstrzymane z powodu problemów technicznych, a testy próbek SOCAMM2 są już prowadzone przez wszystkich trzech głównych producentów pamięci.

Pierwsza generacja SOCAMM miała wprowadzić modularną pamięć LPDDR dla centrów danych Nvidii, oferując wysoką przepustowość przy niskim zużyciu energii – podobnie jak HBM, ale przy niższych kosztach. Dokumentacja Nvidii potwierdzała wsparcie dla SOCAMM w serwerach NVL72 GB300, z możliwością obsługi do 18 TB LPDDR5X i przepustowości 14,3 TB/s.

Rezygnacja z SOCAMM1 może dać producentom takim jak Samsung czy SK hynix szansę na zmniejszenie dystansu do Microna, który już w marcu tego roku dostarczał SOCAMM dla centrów danych.

SOCAMM2 ma według przecieków podnieść prędkość przesyłu danych z 8 533 MT/s do 9 600 MT/s i potencjalnie wprowadzić wsparcie dla LPDDR6, choć żaden producent tego jeszcze nie potwierdził. Wcześniejsze raporty zakładały, że w 2025 roku miało zostać dostarczonych 600–800 tys. jednostek SOCAMM, co świadczy o poważnych planach Nvidii wobec tego rozwiązania.

Firma ani producenci pamięci nie skomentowali tych doniesień, ale rosnące zapotrzebowanie na pamięć dla AI sprawia, że przeskok z SOCAMM1 do SOCAMM2 wydaje się logiczny i możliwy do realizacji w najbliższej przyszłości.

Źródło: ETNews