Zawsze, kiedy robię sobie selfie z dzióbkiem, zastanawiam się, na ile moje zdjęcie zdobędzie popularność i ile przyniesie mi „fejmu”. Nawet zakładając, że powyższe zdanie to jednak bardziej żart, musimy pogodzić się z faktem, że coraz częściej zdjęcia nie służą do zatrzymania w obiektywie chwili, do której chciałyby wracać osoby na nim uwiecznione, ale do budowania pewnej narracji, często na potrzebę kreowania swojej pozycji społecznej.

Żeby takie „propagandowe” zdjęcie mogło osiągnąć zamierzony skutek, musi nie tylko ukazywać swojego bohatera w odpowiednim świetle, ale także zapadać w pamięć – zarówno znajomym, jak i przypadkowym widzom. Jednak jako że trudno autorowi rozpoznać, na ile zdjęcie może stać się popularne (trudno obiektywnie oceniać swoją pracę lub swój wizerunek), to badacze z MIT postanowili stworzyć algorytm, który oceni to za nas.

Amerykanie swój program zbudowali w oparciu o popularne ostatnio mechanizmy głębokiego uczenia maszynowego. Algorytm, nazwany MemNet, rozpoznaje, które fragmenty naszej fotografii najbardziej zwracają na siebie uwagę. Dzięki temu możemy zdjęcie odpowiednio wykadrować lub poddać obróbce graficznej, by nieco zmniejszyć oddziaływanie detali odwracających uwagę od tego na czym nam zależy lub uwypuklić ważne dla nas szczegóły.

Program opracowany na MIT, jak na algorytm uczenia maszynowego przystało, uczył się swojego fachu na szerokiej bazie przykładów. MemNet analizował dziesiątki tysięcy obrazów ocenionych wcześniej przez 5 tysięcy ochotników. Każdy z analizowanych przez komputer obrazów był wcześniej poddany ocenie co najmniej 80 żywych ludzi. Wstępne analizy wykazały, że najłatwiej zapamiętywane są twarze i odkryte części ciała, podczas gdy obrazy przedstawiające plażę czy linię horyzontu zdają się wpadać do naszych głów jednym okiem, a wypadać drugim.

Co ważne, ochotnicy na których spostrzeżeniach miał uczyć się program nie mieli za zadanie oceniać widzianych obrazów, a jedynie wskazywać, pośród wielu wyświetlanych zdjęć te, które już widzieli. W ten sposób algorytm uzyskał informację na temat tego, co jest najbardziej rozpoznawalne, a nie najładniejsze – trochę jak w tej maksymie „nieważne co o Tobie mówią, ważne, żeby nie przekręcali nazwiska”.

Oparty na mechanizmach głebokiego uczenia algorytm, określający „najciekawsze” elementy fotografii okazał się o 30% lepszy od swoich tradycyjnych pobratymców i jedynie o kilka procent różnił się od wyników wskazywanych przez ludzi. Jego największą słabością pozostają obecnie loga, teksty i symbole graficzne, jednak jeżeli chcesz dokonać rzetelnej analizy swojego selfie, spokojnie możesz odwiedzić stronę domową projektu.

[źródło i grafika: techcrunch.com]

Spodobał Ci się ten artykuł? Podaj dalej!