Wraz z rozwojem sztucznej inteligencji to, co dzieje się w ich sprzętowych „mózgach” staje się dla nas coraz bardziej niejasne. Sprawia to ogromne problemy w naprawie ewentualnych usterek, które mogą przybierać nawet taki kształt, jak np. tłumaczenie arabskiego „Dzień dobry” na hebrajski „zaatakuj ich”. Przed takimi „wpadkami” uchroni naukowców nowe narzędzie, ponieważ Seq2Seq-Vis umożliwia zrozumienie decyzji SI.

Naukowcy IBM stworzyli wspomniane Seq2Seq-Vis, aby umożliwić twórcom aplikacji opartych na sztucznej inteligencji wizualizację decyzji, jakie ta podejmuje podczas tłumaczenia. Celuje więc w problem określany mianem „black box”, czyli braku wyjaśnienia, na jakiej podstawie system podjął taką, a nie inną akcję. To właśnie ten aspekt SI wywołuje u wielu ciarki na plecach. Zwłaszcza że ta coraz częściej pojawia się w krytycznych zastosowaniach. Jak jednak działa to nowe narzędzie? W skrócie – na podstawie modelu „sequence to sequence”, czyli samej podstawie maszynowego uczenia.

Ją już teraz wykorzystuje większość nowoczesnych translatorów. Wszystko przez to, że mogą „nauczyć się przekształcać sekwencję wejściową dowolnej długości w sekwencję wyjściową o dowolnej długości”. Oznacza to mniej więcej tyle, że system przerzuca kod źródłowy przez kilka sieci neuronowych, aby odwzorować go na język docelowy, jednocześnie go udoskonalając i upewniając się, że jest poprawny pod kątem gramatyki i semantyki.

Czytaj też: Najnowsza sztuczna inteligencja MIT uczy się języka jak dzieci

Źródło: VentureBeat

Kolejny artykuł znajdziesz poniżej