Algorytmy mają to do siebie, że strasznie łatwo je oszukać, zwłaszcza jeśli skrypt ma działać w roli “sędzi” oceniającego zawartość. Dobrym (czy raczej złym) przykładem niech będzie YouTube, którego boty odpowiedzialne za łapanie przypadków złamania praw autorskich, potrafią czasem kompletnie oszaleć i zacząć banować niewłaściwe osoby. Facebook ze swoimi algorytmami promującymi ciekawe wiadomości, również nie należy do świętych.

Od kiedy Facebook zwolnił ekipę redagującą promowane wiadomości i zastąpił ją zwykłym algorytmem, na stronie zaczęły dziać się dziwne rzeczy. Washington Post przeprowadził mały eksperyment, do którego użył czterech różnych kont tego portalu społecznościowego. Z ich poziomu kontrolowano czy wrzucane wiadomości są zgodne z prawdą i czy bot nie chwali się światu nierealnymi nowinkami. Jak się okazało we wrześniu, w trakcie godzin szczytu, znaleziono aż 5 zupełnie fałszywych informacji i 3 w dużym stopniu nieprawdziwe. Przykład? Wiadomość o tym, że Tim Cook zapowiedział nową wersję Siri, która dosłownie wyjdzie z telefonu i zajmie się domowymi obowiązkami. Strona, która to wrzuciła nazywa się Faking News, co od razu świadczy, z jaką rzetelnością mamy do czynienia. To jednak umknęło oku algorytmu.

Dodatkowo warto też wspomnieć, że bardzo duża część pojawiających się postów w popularnych tematach była zwykłymi prasówkami, postami z serwisu Medium, albo odnośnikami do iTunes czy sklepów internetowych. Powiedzmy sobie to wprost – to nie są wiadomości ze świata, a zwykłe reklamy. Facebook ma zatem jeszcze pełne ręce roboty, jeśli chodzi o usprawnienie algorytmu. Chociaż dobrą decyzją byłoby jednak przywrócenie kilku stanowisk edytorów, którzy mogliby pomóc skryptowi w dobieraniu informacji.

źródło: washingtonpost.com | zdjęcie: buzzsumo.com

    Spodobał Ci się ten artykuł? Podaj dalej!