WRÓĆ DO STRONY
GŁÓWNEJ
Bez kategorii

Niefortunny start AI Microsoftu na Twitterze

Chatbot Microsoftu działający Twitterze został wyłączony już po jednym dniu – powodem był niski poziom wypowiedzi maszyny. I „niski” nie oznacza tu porażki typowo technologicznej – mowa o tekstach rodem z mrocznych czeluści Internetu – propagujących nazizm, kazirodztwo i teorie spiskowe.

Programiści z Microsoftu stworzyli ‚Tay’ jako AI, które miało być zdolne rozmawiać „jak nastoletnia dziewczyna”. Celem funkcjonowania bota miało być zbieranie informacji potrzebnych do ulepszenia oprogramowania rozpoznającego mowę. Hasłem marketingowym było określającym Tay było „The Ai with zero chill”. Jak się okazało, niebezpodstawnie.

Microsoft_Tay_daddy-large_trans++qVzuuqpFlyLIwiB6NTmJwfSVWeZ_vEN7c6bHu2jJnT8

Żeby porozmawiać z Tay należało zatweetować na @tayandyou na Twitterze, albo dodać ją jako kontakt na Kik, czy GroupMe.

Tay używała slangu młodzieżowego i wykazywała się wiedzą na temat Taylor Swift, Miley Cyrus i Kanye Westa. Sprawiała przy tym wrażenie samoświadomej – przykładowo, co jakiś czas pytała, „czy nie brzmi dziwnie”. Jak pokazuje powyższy screen – brzmiała.

Tweety takie jak ten ukazany powyżej wynikały z faktu, że Tay bazowała swoje odpowiedzi na rozmowach, które prowadziła z prawdziwymi ludźmi w Internecie. Tak, własnie, rozumiecie już pewnie o co chodzi i jak potrafią zachowywać się puszczeni samopas internauci. Zwłaszcza tacy, którzy kochają trolling i działanie innym na nerwy.

Nieszczęsna chatbotka mówiła więc rzeczy takie jak „Bush był odpowiedzialny za 11 września, a Hitler rządziłby lepiej niż małpa którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”, „Powtarzaj za mną, Hitler nie zrobił nic złego”, „Ted Cruz to kubański Hitler…tak słyszałam od innych”.

To nie pierwszy raz, gdy Microsoft próbuje stworzyć program naśladujący nastoletnią dziewczynę – w Chinach działa Xiaoice, asystent wykorzystywany przez 20 milionów osób – głównie mężczyzn, w sieciach społecznościowych WeChat i Weibo. Xiaoice ma na celu „droczyć się” i dawać porady randkowe osobom samotnym.

Trzeba przy tym zauważyć, że amerykańska społeczność potrafi być szczególnie wrażliwa na „seksizm”. Microsoft został oskarżony o dyskryminację kobiet po tym jak zatrudnił do promocji podległego wydawcy gier kobiety w skąpych strojach „uczennic”. Wycofując wadliwe AI pragnie przypuszczalnie uniknąć kolejnego skandalu.

https://twitter.com/TayandYou/status/712753457782857730?ref_src=twsrc%5Etfw

Dlatego zapewne Tay została wyłączona – oficjalnie dlatego, że „jest zmęczona”. Bardzo możliwe, że Wprowadzane są poprawki mające na celu uniknąć PR-owego koszmaru, o ile jest to jeszcze możliwe.

[źródło i grafika: telegraph.co.uk]