DARPA, a więc Departament Obrony USA chce zawalczyć z algorytmem deepfake (tym, który podmienia twarz i w sumie już nie tylko) za pomocą tej samej broni. Agencja chce bowiem nauczyć komputery rozpoznawania błędów w zmanipulowanych mediach przy użyciu logiki i zdrowego rozsądku.

Czytaj też: Aplikacja Rype GO używa SI do nauczenia Was języka obcego

W ramach programu SemaFor naukowcy starają się zaprogramować systemy komputerowe tak, aby wykrywały zmanipulowane media. W miarę jak globalni przeciwnicy zwiększają swoje możliwości technologiczne, głębokie podróbki i inne zaawansowane taktyki dezinformacyjne stają się głównym przedmiotem zainteresowania społeczności bezpieczeństwa narodowego. Nic dziwnego, bo narzędzia do deepfake są nawet z tygodnia na tydzień dokładniejsze, a na dodatek łatwo dostępne.

Chociaż naukowcy już teraz opracowali potrzebną technologię, to ta jest niewystarczająca właśnie przez poprawę algorytmów. Jednak oprócz zwykłego wykrywania deepfake, urzędnicy chcą również, aby narzędzia przypisywały media do różnych grup i ustalały, czy treść została zmanipulowana w niecnych celach. Korzystając z tych informacji, technik oflagowałby posty do oceny przez ludzi.

Agencja zorganizuje dzień wnioskodawców programu SemaFor już 28 sierpnia, a grupy zainteresowane udziałem muszą zarejestrować się do 21 sierpnia. Urzędnicy spodziewają się opublikowania szerokiego ogłoszenia agencji w sprawie programu w nadchodzących tygodniach.

Czytaj też: Kiedy Samsung pokaże 108 MP czujnik?

Źródło: Defenseone

Kolejny artykuł znajdziesz poniżej