Coraz bardziej realistyczne „fejki”, które wykorzystują sztuczną inteligencję do modyfikacji obrazów mogą być potencjalnie używane w bardzo niebezpieczny sposób. O ile zabawne przeróbki nie są może szczególnie groźne, tak rozsiewanie fałszywych informacji może stanowić znacznie większy problem.
Tym samym nie powinny nas dziwić wysiłki ekspertów mające na celu ograniczenie powstawania deep fake’ów bądź ich rozpoznawanie. Poprzednie próby opierały się na metodach statystycznych, lecz teraz naukowcy postanowili zastosować inne podejście. Nie jest ono szczególnie nowe, bowiem wywodzi się z 1972 roku i zyskało nazwę dyskretnej transformacji kosinusowej.
Owa technologia analizy częstotliwości skupia się na elementach tworzonych z wykorzystanie uczenia maszynowego w postaci tzw. sieci GAN. Umożliwia one znajdowanie artefaktów w zakresie wysokich częstotliwości, co pozwala określić, czy dany obraz został stworzony z wykorzystaniem sztucznej inteligencji.
Czytaj też: Wkrótce obejrzymy pojedynki myśliwców sterowanych sztuczną inteligencją
Prawdziwe obrazy składają się głównie z funkcji o niskiej częstotliwości. Zupełnie inaczej jest w przypadku materiałów powstałych w oparciu o sieci GAN, które charakteryzują się obecnością artefaktów o wysokiej częstotliwości. Wykorzystywana przez autorów pomysłu metoda pozwala odróżnić obie te sytuacje, w konsekwencji prowadząc do wyłapania „fejków”. Problem stanowi fakt, iż oprogramowanie odpowiedzialne za tworzenie fałszywych materiałów również ciągle się rozwija, przez co już wkrótce mogą się one stać jeszcze doskonalsze.
Chcesz być na bieżąco z WhatNext? Śledź nas w Google News