Zaledwie kilka dni temu pisaliśmy o intensywnych pracach nad sprzętem dedykowanym sztucznej inteligencji prowadzonych przez firmę IBM. Teraz dowiedzieliśmy się, że Intel – firma która prawie zupełnie wygryzła IBM z rynku procesorów, postanowił zainwestować poważne środki w rozwój układów scalonych dedykowanych obliczeniom charaktetystycznym dla tzw. głębokiego uczenia maszynowego, czyli podstawy wielu współczesnych programów AI.

Firma z Santa Clara, można tak powiedzieć, w porównaniu do swojego starszego konkurenta, poszła na łatwiznę. Intel postanowił bowiem kupić (szacuje się, że za 408 milionów dolarów) firmę Nervana Systems, zajmującą się opracowywaniem API i algorytmów sztucznej inteligencji oraz dedykowanych układów scalonych.

Nervana zapowiedziała na przyszły rok premierę swojego pierwszego procesora AI, nazwanego Nervana Engine. Firma obiecuje, że będzie on w obliczeniach z dziedziny sztucznej inteligencji około dziesięciokrotnie szybszy od najszybszych współczesnych układów graficznych.

Rynek obecnych i przyszłych rozwiązań sprzętowych służących algorytmom AI jest bardzo zróżnicowany. Mamy na nim zupełnie standardowe procesory serwerowe, procesory zoptymalizowane pod kątem AI (IBM Watson), czy ogólnie dużej wydajności wielowątkowej (Intel Xeon Phi) i w końcu układu typu GPGPU, czyli popularne karty graficzne wykorzystane do “nie graficznych” obliczeń.

Właśnie do tej ostatniej kategorii najbardziej podobne ma być rozwiązanie zakupionej właśnie przez Intela Nervany. Wydaje się to rozwiązaniem dosyć bezpiecznym. Współczesne GPU to tak naprawdę w dużej części klastry wyspecjalizowanych procesorów SIMD, oferujące gigantyczny stosunek ilości operacji wykonanych równolegle do mocy.

Kiedy z GPU wytniemy (albo po prostu wyłączymy) jednostki o przeznaczeniu stricte graficznym (jak np. jednostki rasteryzujące i teksturujące) otrzymujemy właśnie bardzo wydajny układ obliczeniowy. Tak naprawdę w podobny sposób powstały pierwsze prototypy Xeona Phi. Procesor ten bowiem, początkowo, miał być właśnie układem graficznym. Kiedy jednak okazało się, że chociaż przewyższa konkurencję w wydajności pojedynczego wątku, to odstaje od niej w programach wielowątkowych (takich jak rendering scen trójwymiarowych, czyli – w grach), Intel zmodyfikował konstrukcję i po kilku latach prac zaczął sprzedawać jako akcelerator obliczeń.

Nervana Engine nie tylko ma bardzo szybko wykonywać obliczenia sztucznej inteligencji. Nie powinien również odstawać od konkurencji w dziedzinie dostępu do pamięci. Układ ma zostać wyposażony w 32GB pamięci HBM, mającej zapewnić łączną przepustowość na poziomie 1TB/s, czyli dwukrotnie większą od tej, którą dysponuje dotychczasowy rekordzista – Radeon R9 Fury X.

W jakim kierunku Intel rozwinie pomysły przejętej przez siebie firmy i czy pozwoli mu to zdominować rynek AI, tak jak wcześniej zdominował większość innych rynków układów scalonych, przekonamy się za kilka lat. Tym czasem powinniśmy się cieszyć, że postęp w dziedzinie sztucznej inteligencji dokonuje się tak szybko i że każdy duży gracz chce być w tej dziedzinie obecny.

[źródło i grafika: spectrum.ieee.org]

    Spodobał Ci się ten artykuł? Podaj dalej!