Dwójka badaczy opublikowała właśnie artykuł, w którym kwestionowane są etyczne aspekty algorytmu zapobiegającego samobójstwom na Facebooku. Krytykowana jest także jego przejrzystość.
Algorytm rozpoczął pierwsze testy w 2017 roku. Śledzi on aktywność osoby, która może popełnić samobójstwo oraz taki użytkownik jest specjalnie oznaczany. Po oznaczeniu sprawą zajmuje się specjalny zespół złożony z kilku osób, a gdy zostanie to potwierdzone to Facebook kontaktuje się z lokalnymi władzami w celu interwencji. Nowy raport NYT przeanalizował cztery najnowsze zgłoszenia i wykazał, że algorytm jest jeszcze daleki od sukcesu. Zaledwie jedno z nich rzeczywiście dotyczyło możliwości popełnienia samobójstwa.
Czytaj też: Kwas glutaminowy pomoże w zrozumieniu lęku
Naukowcy twierdzą, że algorytm jest odpowiednikiem badania medycznego i powinien podlegać tym samym wymogom etycznym i powinien być tak samo przejrzystym. W końcu ocenia on każdego z nas i potrafi nas nawet śledzić. Druga uwaga dotyczy konsekwencji oznaczenia. W niektórych krajach próba samobójcza karana jest więzieniem i Facebook musi mieć to na uwadze przy zgłaszaniu osób. A co Wy o tym sądzicie? Czy algorytm powinien zostać bardziej dostosowany do wymogów medycznych i bardziej chronić naszą prywatność?
Czytaj też: Łagodne i długotrwałe stosowanie MDMA nie niszczy funkcjonowania w społeczeństwie
Źródło: Newatlas