Nowa sieć neuronowa od Google jest gotowa do działania, jednak firma postanowiła wstrzymać jej wydawanie ze względu na generowane przez nią problematyczne treści.
Dokładniej rzecz biorąc, chodzi o narzędzie zwane Imagen Video. Za jego sprawą sztuczna inteligencja jest w stanie generować materiały wideo w oparciu o wprowadzony tekst. Jak wyjaśniają przedstawiciele Google, opóźnienie premiery tego oprogramowania wynika z „kilku ważnych wyzwań związanych z bezpieczeństwem i etyką”.
Czytaj też: Sztuczna inteligencja i uczenie maszynowe skrócą czas ładowania baterii aut elektrycznych
Niestety nie zostało dokładnie wyjaśnione, o jakie treści chodzi, lecz możemy przypuszczać, że Imagen Video mogłoby zostać wykorzystane do generowania brutalnych, erotycznych czy też rasistowskich materiałów.
Sztuczna inteligencja stwarza wiele możliwości, ale i daje pole do nadużyć
Podczas gdy nasze wewnętrzne testy sugerują, że wiele wyraźnych i brutalnych treści może być odfiltrowanych, nadal istnieją społeczne uprzedzenia i stereotypy, które są wyzwaniem do wykrycia i filtrowania. Zdecydowaliśmy się nie wypuszczać modelu Imagen Video ani jego kodu źródłowego, dopóki te obawy nie zostaną złagodzone.
wyjaśniają przedstawiciele Google
Czytaj też: Dzięki tej sztucznej inteligencji pogoda nie przeszkodzi autonomicznym samochodom
Sztuczna inteligencja i oparte na niej narzędzia, które umożliwiają generowanie bardzo realistycznych, a przy tym rozbudowanych treści, nie zawsze jest wykorzystywana tak, jak byśmy tego oczekiwali. Sporo kontrowersji wzbudza między innymi technologia związana z tzw. deepfakes, za sprawą których pojawiają się materiały ukazujące sytuacje czy wypowiedzi, z którymi widoczne na ekranie osoby mogą nie mieć nic wspólnego. Tego typu sytuacje nierzadko są wykorzystywane na przykład do tworzenia filmów pornograficznych czy manipulowania słowami polityków.