Kiedy ludzie wyciągają rękę, aby złapać dany przedmiot, często najpierw „robią miejsce”, aby wygodnie chwycić obiekt. Taka strategia, często stosowana podświadomie, pozwala nam efektywniej chwytać przedmioty. W ostatnich latach naukowcy próbowali odtworzyć ludzkie zachowania u robotów, jednak mniej badań koncentrowało się na tej konkretnej strategii. Z tego względu badacze z Karlsruhe Institute of Technology (KIT) opracowali niedawno algorytm, którego pozwala szkolić maszyny w tym zakresie. 

Objęty eksperymentem robot został przeszkolony w zakresie chwytania obiektów przez około 80 godzin przy użyciu danych z kamery i informacji zwrotnych z chwytaka. Gdy z powodzeniem trzymał obiekt w „dłoni”, otrzymywał nagrodę. Nowy algorytm posuwa jednak trening o krok dalej, pozwalając maszynie na przyswojenie przydatnych wcześniej strategii chwytania, takich jak np. przesuwanie.

Czytaj też: Żywsze i dynamiczniejsze roboty, dzięki odkryciu Disney Research

Robot może uczyć się bardziej efektywnie, jeśli otrzymuje bezpośrednią informację zwrotną po każdej wykonywanej czynności. W ten sposób nauka jest szybsza i bardziej wydajna. Algorytm przedstawiony przez naukowców pozwala robotowi nauczyć się optymalnej pozycji do czynności poprzedzających chwytanie. Pokazuje również, jak wykonywać te czynności, aby zwiększyć prawdopodobieństwo pomyślnego złapania.

Naukowcy zastosowali swój algorytm do szkolenia ramienia-robota Franka, a następnie ocenili jego wydajność w ramach zadana polegającego na podnoszeniu obiektów z pojemnika, aż do całkowitego opróżnienia go. Przeszkolili system za pomocą 25 000 różnych chwytów i 2500 działań. Wraz z upływem czasu ramię skutecznie chwytało zarówno znane jak i nieznane wcześniej przedmioty.

[Źródło: techxplore.com; grafika: Berscheid, Meissner & Kröger]

Czytaj też: Czy pracownicy wolą być zastąpieni robotem niż inną osobą?

Spodobał Ci się ten artykuł? Podaj dalej!