Podstępna rozmowa telefoniczna. Podnosisz słuchawkę i cię mają

Oszustwa telefoniczne, choć stare jak świat, to za sprawą sztucznej inteligencji wzbijają się na wyższy poziom. Oto, jak uniknąć wpadnięcia w pułapkę oszustw głosowych z wykorzystaniem AI.

Anna Kopeć (AnnaKo)
5
Udostępnij na fb
Udostępnij na X
Podstępna rozmowa telefoniczna. Podnosisz słuchawkę i cię mają

Eksperci ds. bezpieczeństwa są jednogłośni - oszustwa związane z klonowaniem głosu AI są coraz bardziej popularne. Modele sztucznej inteligencji sterowane głosem są coraz częściej wykorzystywane do naśladowania głosu bliskich. Eksperci apelują o czujność i zalecają prosty, ale najskuteczniejszy sposób na uchronienie się przed tym - ustalenie z przyjaciółmi oraz rodziną bezpiecznej frazy. 

Dalsza część tekstu pod wideo

Z pewnością każdy z nas słyszał, albo nawet zetknął się osobiście z połączeniem spamowym, które imituje głos bliskiej osoby, a w rzeczywistości nie ma z nią nic wspólnego. Oszuści wykorzystują modele AI z obsługą głosu, imitując prawdziwych rozmówców, w tym członków rodziny. Pojawienie się tych modeli, trenowanych na ludzkich głosach, otworzyło nowy obszar działania dla oszustów telefonicznych. Narzędzia, takie jak API głosowe OpenAI, obsługują konwersacje w czasie rzeczywistym między człowiekiem a modelem AI. Modele te można zaprogramować tak, aby automatycznie wykonywały oszustwa telefoniczne, zachęcając ofiary do ujawniania poufnych informacji. Przestępcy mogą zautomatyzować proces za pomocą kodu, co pozwala im atakować więcej osób, za mniejsze pieniądze. Są w stanie naśladować nie tylko rodzinę i znajomych, ale także autorytety i celebrytów. 

Pamiętamy wszyscy głośną aferę, kiedy firma OpenAI zaprogramowała opcję głosu Sky, która niepokojąco podobnie brzmiała do głosu aktorki Scarlett Johansson. Podobnie, Sir David Attenborough wyraził zaniepokojenie, że klon głosu AI brzmi niemal identycznie jak jego głos. 

Granice między tym, co prawdziwe, a zaprogramowane, stają się coraz bardziej rozmyte. Dowodem na to stały się także narzędzia, które zostały zaprogramowane do walki z oszustami. Brytyjska sieć O2 zaprojektowała Daisy - babcię AI, której zadaniem jest wyłapywanie oszustów. Jej zadaniem jest przytrzymanie na linii oszusta, podczas gdy ten ma wrażenie że rozmawia z prawdziwym seniorem.

Najbardziej jednak niepokojący jest fakt, że oszuści mogą szkolić  głosy AI już na podstawie małych próbek audio. Według F-Secure, wystarczy kilka sekund dźwięku, aby symulować głos bliskiej osoby

Jak się chronić przed tego typu niebezpieczeństwem?

  1. Uzgodnij bezpieczną frazę ze znajomymi i rodziną.
  2. Poproś dzwoniącego o potwierdzenie kilku ostatnich prywatnych informacji.
  3. Zwróć uwagę na akcent i brak emocji.
  4. Rozłącz się o oddzwoń do dzwoniącego.
  5. Bądź czujny, jeśli padną prośby o ujawnienie danych bankowych.