WRÓĆ DO STRONY
GŁÓWNEJ
Nauka

Google opracowało sposób pozwalający na wyłączenie zbuntowanej AI

Czy postęp techniczny może wymknąć się spod kontroli? Chyba nie ma zagadnienia, gdzie ten dylemat jest wyraźniej widoczny, niż w przypadku sztucznej inteligencji. Jakby nie patrzeć, mówimy o czymś, co w teorii mogłoby zastąpić człowieka. Z jednej strony, firmy takie jak Google, Facebook, Amazon i Microsoft agresywnie inwestują w rozwój AI – z drugiej – myśliciele, tacy jak Elon Musk, czy Steven Hawking przyrównują badania nad zaawansowaną sztuczną inteligencją do przyzywania demona.

Obecnie jedno z najbardziej zaawansowanych przedsięwzięć w dziedzinie AI, DeepMind Google zamierza podjąć kroki mające na celu stworzenie środków bezpieczeństwa na wypadek, gdyby ludzcy operatorzy mieli „przejąć kontrolę nad robotem zachowującym się źle w stopniu, który może doprowadzić do nieodwracalnych konsekwencji”. Wiecie – na przykład do wybicia wszystkich ludzi. Niemniej, praca nie wgłębia się szczególnie w apokaliptyczne scenariusze, a podane przykłady ogranicza do prostych sytuacji, takich jak praca robotów w fabryce.

Raport stanowi owoc połączonego wysiłku DeepMind oraz Instytutu Przyszłości Ludzkości pracującego przy Uniwersytecie Oksfordzkim. Dyrektor-założyciel tej drugiej organizacji, Nick Bostrom od dziesięcioleci dość często wypowiada się odnośnie niebezpieczeństw związanych z rozwojem AI, jest również autorem książek poświęconych tematyce super-inteligentnych robotów.

Ta konkretna praca – o tytule Safely Interuptible Agents opisuje sposób wyłączania sztucznej inteligencji, w wypadku gdy ta zaczyna zajmować się czymś, czego człowiek sobie naprawdę nie życzy (na przykład, zabijaniem wszystkich ludzi). Autorzy opisują – za pomocą zaawansowanej matematyki – coś, co sami nazywają „wielkim, czerwonym przyciskiem” wbudowanym w AI.

Możesz zapytać – a co jeśli sztuczna inteligencja nauczy się ignorować komendę wyłączenia? Uczeni najwidoczniej oglądali te same filmy co Ty – i są na to przygotowani.

Niniejsza praca opisuje sposób zapewnienia, by ucząca się jednostka, nie poznała (ani nie poszukiwała!) sposobu umożliwiającego przeciwdziałanie wyłączeniu przez środowisko, czy ludzkiego operatora

Wydawać się może, że takie przedstawienie sprawy nieco wyprzedza fakty – jakby nie patrzeć, współczesna sztuczna inteligencja dobrze radzi sobie z grami planszowymi, ale z prowadzeniem normalnej rozmowy – już średnio. Trzeba jednak zauważyć, że gdy powstanie sztuczna inteligencja dorównująca ludzkiej, może być już za późno. Jak twierdzi Bostrom, w takiej sytuacji doszło by do niezwykle szybkiego rozwoju możliwości sztucznego mózgu.

Gdy sztuczna inteligencja osiągnie poziom ludzkiej, nastąpi pozytywne sprzężenie zwrotne, które sprawi, że rozwój technologii znowu przyspieszy. AI pozwoli na skonstruowanie lepszej AI, które z kolej pozwoli na skonstruowanie jeszcze lepszej AI, i tak dalej.

Lepiej dmuchać na zimne.

1464275028-20160526

SMBC Comics

[źródło: gizmodo.com grafika: Zach Weinersmith]