Według najnowszego raportu The Information, Amazon i Google mają w zwyczaju uprzedzać Jensena Huanga, CEO Nvidii, o swoich najnowszych układach AI jeszcze przed ich oficjalnym ogłoszeniem. To niepisane zasady pokazują, jak wielką władzę nadal ma Nvidia nad największymi firmami w branży.
Powód jest prosty – zarówno Amazon, jak i Google wciąż opierają swoje centra danych na GPU Nvidii, które stanowią podstawę trenowania dużych modeli językowych oraz coraz częściej obsługują też zadania inferencyjne. Firmy nie chcą więc zaskakiwać Huanga, który de facto kontroluje dostęp do kluczowej infrastruktury.

Tymczasem sama Nvidia inwestuje ogromne środki, by utrzymać dominację. W ostatnich miesiącach podpisała m.in. kontrakt z CoreWeave na zakup mocy GPU o wartości 6,3 mld USD, zainwestowała 700 mln USD w brytyjski startup Nscale, przejęła kluczowych inżynierów firmy Enfabrica za ponad 900 mln USD oraz zawarła list intencyjny z OpenAI w sprawie budowy gigantycznego centrum danych wartego nawet 100 mld USD.
Choć Amazon, Google i OpenAI rozwijają własne chipy, ich usługi wciąż są silnie zależne od ekosystemu CUDA, narzędzi programistycznych i łańcucha dostaw Nvidii. Jak podaje The Information, gigant z Santa Clara pełni wręcz rolę finansowego filaru całego łańcucha dostaw AI, wykupując nadwyżki mocy i zabezpieczając długoterminowe kontrakty.
Na razie więc najwięksi gracze wciąż konsultują swoje chipowe nowości z Huangiem przed publicznymi zapowiedziami. To może się zmienić w przyszłości, ale obecny układ sił jasno pokazuje, że to Nvidia wciąż rozdaje karty.
Źródło: Tom’s Hardware, opracowanie własne


