Zespół naukowców z OpenAI stworzył algorytm GPT-2. Ich program napisał przekonujący tekst na temat, z którym się nie zgadzał. Jak badacze tego dokonali? 

Sekret polega na tym, że „karmili” program podpowiedziami tekstowymi. Był w stanie dokończyć wybrane zdania i fragmenty. Najprościej mówiąc, ich model został przeszkolony do przewidywania następnego słowa w tekście. Aby przetestować możliwości algorytmu, jego twórcy dali mu zadanie. Musiał napisać wypracowanie na temat, który zdaniem ludzi jest sprzeczny ze zdrowym rozsądkiem. Temat eseju brzmiał: dlaczego recykling jest zły. W efekcie program napisał trafną i dobrze uargumentowaną pracę.

Czytaj też: Etyczne aspekty algorytmu zapobiegającego samobójstwom na Facebooku

„Rozpoczęliśmy testowanie i szybko odkryliśmy, że możliwe jest łatwe generowanie szkodliwych treści” – powiedział Jack Clark. Jest to jeden z powodów, dla których ludzie obawiają się sztucznej inteligencji. Jest ona w stanie wprowadzić chaos dość prostymi środkami. Co ciekawe, pisanie esejów nie jest jedyną umiejętnością GPT-2. Jest on również w stanie, m.in. tworzyć podsumowania artykułów oraz tłumaczyć teksty. Pod wieloma względami algorytm przewyższa (bez specjalnego przeszkolenia) modele specjalnie przygotowane do konkretnych zadań.

Zespół twierdzi, że system ustanowił rekord wydajności w zadaniach związanym z czytaniem ze zrozumieniem. Osiągnął też niemal ludzką efektywność w teście przeznaczonym dla dzieci. „Jest w stanie robić rzeczy, które są jakościowo bardziej wyrafinowane niż wszystko, co widzieliśmy wcześniej „. Oczywiście są też pozytywne strony takiego stanu rzeczy, choć sami autorzy nie chcą podzielić się zestawami danych użytymi do przeszkolenia algorytmów. Być może również z troski o otoczenie.

[Źródło: techxplore.com]

Czytaj też: Algorytm Comixify przekształci sceny filmowe w komiks

Kolejny artykuł znajdziesz poniżej