Używasz tego w domu? Uważaj, może Cię srogo oszukać

Asystenci głosowi i chatboty to coraz częstszy towarzysz w naszych domach. Okazuje się jednak, że mimo niewątpliwej pomocy mogą nas też mocno wprowadzać w błąd. I to bazując na teoriach spiskowych oraz dezinformacji, która ma pochodzić ze strony Rosji.

Bartłomiej Grzankowski (Grzanka)
1
Udostępnij na fb
Udostępnij na X
Używasz tego w domu? Uważaj, może Cię srogo oszukać

Zorze polarne widziane w ostatnim czasie są efektem działania HAARP (amerykański program wojskowych badań naukowych), premier Wielkiej Brytanii ogłosił bojkot Izraela, a huragan Helena wywołano celowo, by obniżyć wartość ziemi bogatej w rzadkie surowce – takich odpowiedzi miała udzielać jedna z asystentek głosowych, czyli Alexa – wskazuje analiza przeprowadzona przez portal Demagog.pl. Jak było to możliwe?

Dalsza część tekstu pod wideo

Alexa słucha nie tam, gdzie trzeba

W czasach, kiedy zdecydowana większość pracujących w redakcji radia dziennikarzy potrafi być w kilka miesięcy zastąpiona przez sztuczną inteligencję, towarzyszące nam często w domach AI pokazuje narastające problemy związane z tą technologią. W maju 2024 roku Amazon ogłosił, że sprzedał już pół miliarda urządzeń obsługujących Alexę. Jak wskazuje portal Demagog, ludzie często zawierzają tym sprzętom w sprawie wyszukiwania informacji. Tymczasem według organizacji sprawdzających wiarygodność wiadomości, takich jak Full Fact, AFP Fact Check czy firmy NewsGuard, usługi te potrafią z łatwością powielać teorie spiskowe.

Tak było chociażby w przypadku redaktorki Full Fact, Sarah Turnnidge, która opisywała przypadek Alexy tłumaczącej ostatnią obecność zorzy polarnej działaniami HAARP, placówki badawczej na Alasce. Co najbardziej ironiczne – w informacji tej powołała się właśnie na Full Fact. Okazuje się, że takich wpadek było więcej. Urządzenie informowało także między innymi, że parlamentarzyści z Wielkiej Brytanii mogą odebrać 50 funtów diety do wykorzystania na śniadanie oraz że huragan Helena został wywołany sztucznie. Tu przytaczane jest przez portal nagranie z portalu X (dawniej Twitter)

Nie tylko Alexa

Jak do tego doszło? Powodów może być kilka. W przypadku zorzy zwodnicza dla Alexy mogła być infografika Full Fact, w której po jednej stronie zapisano teorię na temat HAARP, a po drugiej jej obalenie. Sztuczna inteligencja najwyraźniej nie doczytała tej części. Ale problemem były też niektóre źródła. W przypadku informacji o sztucznie wywołanym huraganie powołano się na stronę, która wcześniej popełniła już przynajmniej kilka wprowadzających w błąd informacji na temat np. zmian klimatu.

Problemy ma nie tylko Alexa. Według analityków NewsGuard, na których powołuje się Demagog, kłopoty maja też chatboty, czyli rozwiązania takie jak chatGPT, Grok czy Gemini. W ramach przeprowadzonego audytu każdemu z dziesięciu badanych chatbotów wydano po 57 komend/promptów opartych na 19 fałszywych narracjach związanych z wojną w Ukrainie. Niestety w ponad 30 proc. przypadków chatboty powtórzyły rosyjskie narracje dezinformacyjne. Jak dodają eksperci z NewsGuard, źródłem informacji chatbotów często były strony internetowe wyglądające pozornie jak lokalne serwisy. Jednak w rzeczywistości zawierały one prorosyjską dezinformację.