Roboty mają problem z rozumieniem interakcji międzyludzkich? Dzięki nowej metodzie to już przeszłość

Interakcje społeczne to jeden z elementów, które przez długi czas były niemożliwe do naśladowania nawet przez najbardziej zaawansowane roboty. Korzystając z tzw. uczenia maszynowego naukowcy są w stanie zaimplementować maszynom taką umiejętność.

Za tym potencjalnym przełomem stoją naukowcy z MIT, którzy umożliwili maszynom zrozumienie pojęć takich jak wzajemna pomoc bądź przeszkadzanie. Poza tym, roboty zostały wyposażone w umiejętność samodzielnego wykonywania tych czynności. Jaki był efekt? Urządzenie oparte na uczeniu maszynowym, czyli podzbiorze sztucznej inteligencji, obserwuje innego robota i próbuje się domyślić, jaki jest jego cel. Następnie, biorąc pod uwagę własną sytuację, maszyna podejmuje decyzję dotyczącą podania “pomocnej dłoni” – bądź też nie.

Czytaj też: Więcej Drive-Thru napędzanych sztuczną inteligencją? MacDonald’s sprzedał technologię

Efekty okazały się naprawdę imponujące, co potwierdzili postronni obserwatorzy. Kiedy zaprezentowano im nagrania tych interakcji między robotami, oceniano je jako zgodne z ludzkim spojrzeniem na tego typu zachowania.

Członkowie zespołu badawczego korzystają z uczenia maszynowego do określania, jakie są fizyczne i społeczne cele robota oraz jak duży nacisk powinien być na nie kładziony. Kiedy wykonywane przez niego czynności są dla niego korzystne, to jest za to nagradzany. W efekcie, kiedy pojawia się możliwość pomocy drugiej maszynie, ta pierwsza bierze pod uwagę potencjalne korzyści dla siebie i otoczenia. W przypadku przeszkadzanie sytuacja jest podobna.

Roboty miały do tej pory poważny problem z interpretowaniem interakcji społecznych

Takie połączenie fizycznych i społecznych celów robota jest kluczowe dla odtworzenia realistycznych interakcji. Ludzie również kierują się w takich sytuacjach wieloma “za” i “przeciw”. Jeden z autorów badania, Andrei Barbu, jako przykład podaje sytuację, w której racjonalnie myślący człowiek najprawdopodobniej nie zdecyduje się na oddanie z własnej woli portfela na rzecz nieznajomego.

Czytaj też: Roboty w Singapurze zajmują się patrolowaniem ulic. Mają ścigać łamiących przepisy związane z pandemią

Aby ocenić stopień zaawansowania robotów pod kątem interakcji społecznych, naukowcy pogrupowali je w trzy kategorie. Maszyny z poziomu 0 cechują się brakiem zrozumienia dla interakcji społecznych. W przypadku poziomu 1 takie urządzenie je rozumie, ale zakłada, że wszystkie inne roboty posiadają tylko cele fizyczne, bez społecznych. Najbardziej zaawansowany jest natomiast poziom 2, przy którym robot posiada cele fizyczne i społeczne oraz ma świadomość tego, że inne urządzenie również je mają. W oparciu o 98 różnych scenariuszy związanych z robotami z poziomów 0, 1 i 2, naukowcy stworzyli 196 nagrań przedstawiających interakcje pomiędzy maszynami. Kiedy następnie zaprezentowano te filmy ludziom, którzy mieli ocenić, jak maszyny rozumiały zachodzące interakcje, opinie obserwatorów pokrywały się z tym, jak świat był widziany przez roboty.