Działanie oprogramowania opiera się na około 2 tysiącach kamer rozmieszczonych na stacjach metra w Montrealu. Sztuczna inteligencja analizuje rejestrowany obraz w poszukiwaniu osób, które mogą znajdować się w głębokim stresie lub rozważać podjęcie próby samobójczej.
Mamy wskazówki, ale oczywiście człowiek nie jest w stanie monitorować setek ekranów przez cały dzień, by identyfikować takie zachowania
– tłumaczy profesor Brian Mishara, światowej sławy specjalista w dziedzinie prewencji samobójstw.
Jak to ma działać?
AI nie używa algorytmów rozpoznawania twarzy, lecz skupia się na obserwacji zachowań. Do kluczowych sygnałów ostrzegawczych zalicza się m.in.: długie wpatrywanie się w głąb tunelu, częste podchodzenie do krawędzi peronu czy pozwalanie na odjazd wielu pociągom bez wsiadania.
To mogą być wskazówki zapowiadające próbę samobójczą
– mówi profesor Wassim Bouachir z Uniwersytetu TÉLUQ.
Projekt jest obecnie w fazie pilotażowej, jednak jego twórcy mają ambitne plany na przyszłość. Ostateczny algorytm dla AI ma umożliwić np. uprzedzanie ochrony na stacjach metra lub nawet alarmowanie maszynistów o konieczności zatrzymania pociągu przed wjazdem na stację. Bouachir przewiduje, że po dwóch latach testów system będzie gotowy do wdrożenia.
Źródło: RMF MAXX/PAP
Autor: Hubert Wiączkowski