DAJ CYNK

Facebook obiecuje poprawić algorytmy SI do skuteczniejszego wykrywania transmisji wideo terrorystów

Sebastian Górski

Prawo, finanse, statystyki

Niedawna masakra w Nowej Zelandii udowadnia, że media społecznościowe w rękach terrorystów stają się niezwykle skutecznym narzędziem, z którym nie radzą sobie nawet algorytmy Facebooka.

Systemy Facebooka 'przespały' transmisję z zamachu w Christchurch. Pierwsze kroki zmierzające do usunięcia treści z najpopularniejszej społecznościówki na świecie podjęto dopiero po zakończeniu przekazu. Dlaczego dopiero wtedy? Jak tłumaczy wiceszef produktu, Guy Rosen, system Facebooka bazujący na sztucznej inteligencji jest w stanie wykrywać próby samobójcze lub inne szkodliwe czynności, ale wideo od zamachowca po prostu nie wzbudziło jego podejrzeń.

"Computers says no". Człowiek też

Trening modeli ML/DL to zadanie skomplikowane i wymagające mnóstwa specyficznych danych (w domyśle zbliżonych do tego co zrobił terrorysta w Christchurch). Paradoksalnie są one trudne do uzyskania - "liczba podobnych przypadków jest na szczęście znikoma". Dodatkowo nikt z użytkowników serwisu nie zgłosił wideo w momencie rozpoczęcia transmisji. Pierwsze sygnału o naruszeniu dotarły 29 minut po rozpoczęciu przekazu i 12 minut po jego zakończeniu.

Wideo z zamachem oglądało na żywo niemal 200 osób, natomiast zapisany plik nabił 4 tys. wyświetleń zanim został usunięty przez Facebooka. To jednak wystarczyło, aby przez serwis przetoczyła się prawdziwa lawina ponownie udostępnionych kopii. Mimo wykrycia i usunięcia przez system 1,2 mln kopii filmu, nadal 300 tys. z nich długi czas pozostawało nie do wyłapania.

System nie zadziałał. Człowiek zadziałał, ale źle

"Core community of bad actors" - takim mianem zostali określeni użytkownicy, którzy na różne sposoby starali się ponownie wrzucić wideo do sieci. Drobna edycja, nagrywanie odtwarzanego wideo telefonem, wykryto ponad 800 wariantów oryginalnego materiału. Aby zaradzić podobnym problemom w przyszłości zdecydowano się dodać do algorytmów między innymi detekcję na podstawie dźwięku.

Z pewnością Facebook nie ma przed sobą łatwego zadania. Jak skutecznie odróżnić i zaklasyfikować wideo do złudzenia przypominające stream z gry komputerowej (niektórzy widzowie posuwali się do określania jego zawartości jako "GTA w prawdziwym życiu")? Intencję ponownie publikujących brutalne wideo z masakry w meczetach pozostawiam pod indywidualną ocenę.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Facebook

Źródło tekstu: Engadget