Bój o jeszcze bardziej zaawansowaną sztuczną inteligencję oraz jeszcze skuteczniejsze systemy maszynowego uczenia trwa w najlepsze, a tym razem naukowcy z MIT w celu „demokratyzacji sztucznej inteligencji” wpadli na sposób wykorzystania SI do bardziej efektywnego szkolenia systemów na bazie uczenia maszynowego.
Z systemami maszynowego uczenia mamy do czynienia od wielu lat i najprostszym przykładem ich wykorzystania są… konsumenckie karty graficzne. Mowa o serii NVIDIA GeForce RTX, które w swoim rdzeniu prócz rdzeni wyspecjalizowanych do wykonywania konkretnych obliczeń zmiennoprzecinkowych, znalazły się rdzenie Tensor wyspecjalizowane w sztucznej inteligencji.
Tak się bowiem składa, że maszynowe uczenie jest odłamem SI, które to polega głównie na „karmieniu” systemu ogromną bazą danych, na podstawie której działają jej algorytmy. Dzięki temu podejściu technologia NVIDIA DLSS jest w stanie działać, zwiększając płynność gry, usprawniając proces renderowania przez przewidywanie i optymalizowanie następnie renderowanych elementów.
Wróćmy jednak na to nieco bardziej skomplikowane poletko technologiczne, ponieważ obecnie SI projektuje systemy uczenia maszynowego w procesie zwanym Wyszukiwaniem Architektury Neuronowej (NAS). Ta wymaga niestety znacznego nakładu zasobów (pieniędzy, czasu i mocy obliczeniowej), co zajmuje często nawet 48000 godzin nieustannej pracy setki wydajnych GPU.
To jednak może zmienić się już wkrótce za sprawą omawianego algorytmu NAS opracowanego przez MIT, który automatycznie uczy się sieci neuronowej splotu w ułamku czasu, sprowadzając oczekiwanie do zaledwie 200 godzin pracy GPU.
Czytaj też: Uczenie maszynowe przewidzi jak długo będziecie żyli
Źródło: Engadget