Analizy przeprowadzane przez sieci neuronowe są znacznie skuteczniejsze niż metody stosowane do tej pory. Dzięki nim naukowcy są w stanie określić, gdzie dojdzie do tzw. wstrząsów wtórnych.
Algorytm oparty na uczeniu maszynowym przeanalizował setki tysięcy odczytów związanych z trzęsieniami ziemi. W ten sposób powstała baza danych pomagająca w przewidywaniu miejsc wystąpienia wstrząsów wtórnych. Są one często równie niebezpieczne (a w skrajnych przypadkach nawet bardziej) niż same trzęsienia. Za najlepszy (choć niezwykle tragiczny) przykład niech posłuży katastrofa z 2011 roku w miejscowości Christchurch. Najpierw, we wrześniu 2010 roku doszło do wstrząsów o sile 7,1 w skali Richtera, które nie spowodowały ofiar w ludziach. Pięć miesięcy później pojawiły się jednak wstrząsy wtórne. Za ich sprawą śmierć poniosło 185 osób a tysiące innych odniosły obrażenia.
Naukowcy przyjrzeli się ponad 131 tysiącom wstrząsów odnotowanych w historii ludzkości. Wzięto pod uwagę również te najpotężniejsze, m.in. z marca 2011, które osiągnęły siłę 9,1 stopni i nawiedziły Japonię. Następnie badacze skorzystali z sieci neuronowej, która wykreowała siatkę komórek otaczających miejsca trzęsień. Zadaniem sztucznej inteligencji było określenie, czy w poszczególnych polach dojdzie do wstrząsów wtórnych. Podczas 30 tysięcy prób algorytm osiągnął wyższą skuteczność niż dotychczas stosowane metody.
Jak przyznają naukowcy związani z projektem, jak na razie wykorzystują oni zaledwie niewielką cześć możliwości oferowanych przez sztuczną inteligencję. Gdy uda się dopracować to rozwiązanie, algorytmy będą w stanie z bardzo wysoką precyzją oceniać szanse na wystąpienie wstrząsów wtórnych w wybranych obszarach. I nawet jeśli obecnie nie jesteśmy w stanie im zapobiec, to możemy przygotować się na nadchodzące zagrożenia, np. poprzez ewakuację mieszkańców bądź zabezpieczenie budynków.
[Źródło: nature.com; grafika: Agencia de Noticias ANDES]