Firma OpenAI skupiająca się na rozwoju sztucznej inteligencji zapowiedziała ostatnio, że z łatwością ich systemy zniszczyłyby fałszywe wiadomości. Zacne oświadczenie, nie ma co, ale wkrótce po nim serwis Wired wyjawił informację, według której sztuczna inteligencja OpenAI może nie być taka rewolucyjna i skomplikowana.
Czytaj też: Sztuczna inteligencja zamienia emoji na koszmarne grafiki
Do takiego stwierdzenia może nas posunąć fakt, że dwóch absolwentów informatycznego uniwersytetu odtworzyło podobno „ukryte oprogramowanie OpenAI”. W teorii każdy mógłby je pobrać i wykorzystać, ale w praktyce wspomniany duet zastrzegł swoje odkrycie z obaw o wpływ społeczny.
Warto przy tym pamiętać, że w lutym OpenAI ujawniło swój model GPT-2 i stwierdził, że został przeszkolony do przewidywania następnego słowa w 40 GB tekstu internetowego. Firma wyjaśniła przy tym swój sposób działania:
Ze względu na obawy związane z wykorzystywaniem dużych modeli językowych do generowania fałszywego , stronniczego lub obraźliwego języka na dużą skalę [tworzeniu fake newsów – przyp. red.], wydajemy tylko znacznie mniejszą wersję GPT-2 wraz z kodem próbkowania. Nie wydajemy zestawu danych, kodu szkoleniowego lub wagi modelu GPT-2.
Firma wydała jednak dwa stopnie tego systemu SI i na podstawie nich wspomniany duet badaczy w wieku 23 i 24 lat, wykorzystał bezpłatną chmurę obliczeniową Google o wartości 50000$ i odtworzył całe oprogramowanie.
Czytaj też: Sztuczna inteligencja wyjaśnia fenomen utworu muzycznego
Źródło: Techxplore