Reklama
aplikuj.pl

Robotyczna dłoń RoCycle rozpoznaje materiał, jaki chwyta

Zastosowanie? Chociażby recykling

Robotyczna dłoń RoCycle rozpoznaje materiał, jaki chwyta
Robotyczna dłoń RoCycle rozpoznaje materiał, jaki chwyta

Banalny przykład z hali recyklingu może pokazać, jak bardzo potrzeba nam robotów, które będą w stanie rozpoznawać materiał, z jakiego wykonano dany przedmiot. Obecnie to ludzie zajmują segregowaniem odpadów zasuwających po przenośniku taśmowym, ale w przyszłości czymś takim może zajmować się wyłącznie robot. Do tej wizji przysłużyła się właśnie robotyczna dłoń RoCycle, która powstała w partnerstwie między uniwersytetem MIT i Yale.

Ta kompatybilna z ramionami robotów innych firm dłoń jest obecnie w 85% dokładna w rozróżnianiu przedmiotów papierowych, plastikowych i metalowych, kiedy podnosi je z nieprzesuwającej się taśmy. Wartość ta spada do 63%, kiedy musi je łapać z ruchomego przenośnika, ale wraz z rozwojem tej technologii, dokładność RoCycle będzie rosnąć.

Robotyczna dłoń RoCycle rozpoznaje materiał, jaki chwyta
Robotyczna dłoń RoCycle rozpoznaje materiał, jaki chwyta

Ta dłoń wykorzystuje dwa palce z miękkiego silikonu do podnoszenia przedmiotów, delikatnie je przy tym ściskając. Taki prosty mechanizm pozwala ocenić rozmiar każdego przedmiotu, co w połączeniu z czujnikami ciśnienia w palcach wystarcza, aby ocenić potrzebną do uniesienia przedmiotu siłę i sztywność materiału. Następnie sprawą zajmuje się oprogramowanie, porównując otrzymane dane do tych w bazach danych i po znalezieniu podobieństwa z wcześniej określonym przedmiotem, RoCycle wie co trzyma i z czego „to coś” jest zrobione.

Po ustaleniu materiału przedmiotu, ramię wyposażone w dłoń RoCycle przechodzi manewru do upuszczenia obiektu do odpowiedniego pojemnika. Naukowcy pracują obecnie nad połączeniem technologii RoCycle z wyjściem wideo z kamer robotów, pozwalając na większą dokładność, dzięki wykorzystaniu danych dotykowych i wizualnych.

Czytaj też: Budżetowy robot Blue napędzany sztuczną inteligencją

Źródło: New Atlas