Naukowcy z Uniwersytetu w Queensland opracowali algorytm wykrywający mizoginistyczne posty na Twitterze. Zajmie się on poszukiwanem słów uważanych za obraźliwe dla kobiet.
Autorzy projektu opracowali system identyfikacji tekstu, którego algorytm uczy się języka charakterystycznego dla tej plaftormy oraz uznawanego za niewłaściwy. Chodzi bowiem o zrozumienie kontekstu, w jakim zostało użyte dane słowo. Badacze zapewniają, że zadbali o to, aby system potrafił odróżnić zarówno obraźliwe słownictwo, jak i sarkastyczne cyz też przyjazne.
Jak nietrudno się domyślić, opracowanie takiego rozwiązania jest niełatwe, ponieważ spełnianie zadań powierzonych sztucznej inteligencji byłoby utrudnione nawet w przypadku ludzi. Prof. Nayak uważa, że opracowany przez jej zespół model można by również rozbudować, m.in. w celu identyfikacji rasistowskich, homofobicznych czy też obrażających osoby niepełnosprawne.
Chcesz być na bieżąco z WhatNext? Śledź nas w Google News