Perplexity AI z zarzutami. Tryb Incognito był pułapką na dane

Perplexity AI stoi przed poważnymi zarzutami dotyczącymi naruszania prywatności. Do amerykańskiego sądu wpłynął pozew zbiorowy przeciwko tej firmie.

Marian Szutiak (msnet)
0
Udostępnij na fb
Udostępnij na X
Perplexity AI z zarzutami. Tryb Incognito był pułapką na dane

Dane trafiały do Google'a i Mety

Według dokumentów sądowych, firma Perplexity AI udostępniała wrażliwe informacje zewnętrznym podmiotom bez zgody użytkowników. Chodzi przede wszystkim o Google'a oraz Metę. Wykorzystywano do tego ukryte trackery reklamowe.

Dalsza część tekstu pod wideo

Narzędzia te działały w sposób zbliżony do podsłuchów. Przesyłały one treść zapytań wpisywanych przez internautów do systemów reklamowych innych korporacji. Dane te służyły później do personalizacji reklam wyświetlanych w sieci.

Problematyczny tryb Incognito

Pozew wskazuje, że oferowana przez Perplexity ochrona prywatności mogła być fikcją. Nawet w specjalnym trybie Incognito informacje miały trafiać do partnerów firmy. Dotyczy to zarówno osób zalogowanych, jak i anonimowych gości.

W przypadku zalogowanych użytkowników przesyłano każde zapytanie oraz każdą wybraną opcję odpowiedzi. Przy braku logowania osoby trzecie mogły mieć dostęp do całych przebiegów rozmów. Często były to dane pozwalające na bezpośrednią identyfikację konkretnej osoby.

Brak jasnych zasad i wysokie kary

Autorzy pozwu twierdzą, że znalezienie polityki prywatności w aplikacji jest bardzo trudne. Użytkownicy nie musieli jej akceptować przed rozpoczęciem korzystania z usługi. Jeden z poszkodowanych przyznał, że szukał w AI porad finansowych oraz prawnych, które teraz są w posiadaniu firm reklamowych.

Pozew dotyczy również firm Google i Meta. Miały one nie egzekwować własnych zasad dotyczących bezpieczeństwa danych, co pozwalało na działanie trackerów w sposób naruszający prywatność internautów.

Rekordowe odszkodowania na horyzoncie

Do pozwu mogą dołączyć mieszkańcy USA korzystający z serwisu od końca 2022 roku do początku 2026 roku. Za każde udowodnione naruszenie grozi kara w wysokości 5 tysięcy dolarów (ponad 18.5 tys. zł). Przy milionach zgłoszonych incydentów łączna kwota odszkodowania może być ogromna.

Sprawa ta rzuca nowe światło na bezpieczeństwo danych w usługach opartych na sztucznej inteligencji. Użytkownicy coraz częściej dzielą się z botami osobistymi informacjami, które powinny być chronione.