Systemy, które potrafią klasyfikować emocje osoby na podstawie jej głosu oraz mimiki są jednym z najważniejszych zagadnień w dziedzinie sztucznej inteligencji. Firma Affectiva wprowadziła niedawno na rynek system, który skanuje twarze i głosy kierowców w celu monitorowania ich nastroju. Oczywiście na projektantów wciąż czeka wiele wyzwań. 

Naukowcy z uniwersytetu w chińskim Hefei twierdzą, że poczynili postępy w tej dziedzinie. Badacze opisali sztuczną inteligencję, która rozpoznaje stan emocjonalny osoby z wysoką skutecznością. Część systemu składa się z algorytmów przetwarzania dźwięku, które pozwalają modelowi skupić się na regionach najbardziej związanych z emocjami. Z kolei drugi komponent skupia się na mimice twarzy oraz emocjach, jakie może za sobą nieść. Po uzyskaniu tych cech pochodzących z wszystkich czterech algorytmów rozpoznawania twarzy, łączy się je z funkcjami mowy, Wszystko po to, aby wychwycić połączenia między nimi w celu ostatecznego „wychwycenia” emocji.

Aby „nauczyć” model, jak klasyfikować emocje, zespół naukowców wyposażył go w 653 filmów oraz klipy audio pochodzące z bazy AFEW8.0. W czasie testów program miał kategoryzować emocje na siedem sposobów – „zły”, „zniesmaczony”, „przestraszony”, „szczęśliwy”, „neutralny”, „smutny” i „zaskoczony”. Skuteczność analizy wyniosła 62,48 procent w przypadku zestawu składającego się z 383 próbek. Co więcej, badacze wykazali, że system uwzględniał związek między mową i mimiką przy dokonywaniu prognoz.

Co ciekawe, model najlepiej radził sobie z emocjami, które miały „oczywiste” cechy, takie jak „złość”, „szczęście”czy „neutralność”.

[Źródło: venturebeat.com]

Czytaj też: Sztuczna inteligencja może projektować RNA

Spodobał Ci się ten artykuł? Podaj dalej!