DAJ CYNK

Oszustwo telefoniczne nowej generacji nadchodzi. Nie uchronisz się

Piotr Urbaniak (gtxxor)

Bezpieczeństwo

Nieznany numer to przy tym pikuś. Czyszczą konta jak nigdy dotąd

Oszuści telefoniczni sięgają po zaawansowaną technologię i osiągają dzięki temu naprawdę spektakularne rezultaty – alarmują eksperci

Dalsza część tekstu pod wideo
 

Nie dzwoni nieznany numer – to krewny lub znajomy. Głos w słuchawce też brzmi znajomo. Niestety prośba o pożyczkę okazuje się już fałszywa, a pieniądze bezpowrotnie znikają.

To nowe oszustwo telefoniczne, które łączy znaną od dłuższego czasu technikę fałszowania identyfikatora dzwoniącego ze sztuczną inteligencją – alarmują Matthew Wright i Christopher Schwartz, dwaj naukowcy z Rochester Institute of Technology w stanie Nowy Jork.

Jako badacze bezpieczeństwa komputerowego widzimy, że postęp w algorytmach głębokiego uczenia się, edycji i inżynierii dźwięku oraz generowaniu syntetycznego głosu oznacza, że ​​coraz bardziej przekonująca jest symulacja głosu osoby .

– czytamy w raporcie, opublikowanym na łamach „The Conversation”.

Sfałszuj dowolny głos za kilkadziesiąt dol.

W Stanach Zjednoczonych, jak wyliczają eksperci, w ten właśnie sposób skradziono już ponad 11 mln dol. A zjawisko ich zdaniem będzie się pogłębiać i rozwijać o kolejne regiony świata, bo niezbędne narzędzia stają się coraz łatwiej dostępne. Przykładem są komercyjne serwisy do klonowania głosu, takie jak Play.ht, Murf czy Respeecher, które za kilkadziesiąt dolarów miesięcznie wygenerują niemal dowolną ścieżkę.

Wright i Schwartz zgodnie twierdzą, że już niebawem użytkownicy telefonów będą musieli wyrobić sobie nowy nawyk. Mianowicie zawsze rozłączać się i oddzwaniać, jeśli prośba zasłyszana w słuchawce dotyczy pożyczki pieniędzy czy ujawnienia potencjalnie wrażliwych danych.

Co gorsza, chatboty, takie jak ChatGPT, zaczynają generować realistyczne skrypty z adaptacyjnymi odpowiedziami w czasie rzeczywistym. Łącząc te technologie z generowaniem głosu , deepfake zmienia się ze statycznego nagrania w żywego, realistycznego awatara, który może przekonująco prowadzić rozmowę telefoniczną.

– zauważają Matthew Wright i Christopher Schwartz.

Co więcej, badacze obawiają się też, że oszustwo z fałszowaniem głosu dopiero wyewoluuje w naprawdę niebezpieczne. Obecnie większość naciągaczy ma korzystać z przygotowanych, wcześniej nagranych ścieżek, ale dodając do układanki chatboty, mogliby poprowadzić rozmowę w czasie rzeczywistym, czytamy.

Jak się przed tym chronić? – zapytacie. Sami badacze przyznają, że przynajmniej na razie dobre rozwiązanie nie istnieje. Jak słusznie zauważają, brakuje choćby stosownych przepisów, które regulowałyby klonowanie głosu. Wracamy więc niejako do punktu wyjścia: zasłyszane prośby trzeba za wszelką cenę weryfikować. Lepszej alternatywy nie ma.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Tero Vesalainen / Shutterstock

Źródło tekstu: The Conversation, oprac. własne