Masz WhatsApp? To masz problem, twoje dane w przypadkowych rękach
Meta zachwala swojego chatbota Meta AI w komunikatorze WhatsApp jako najinteligentniejszego, dostępnego dla wszystkich asystenta AI. Jednak niedawna wpadka pokazuje, że sztuczna inteligencja wciąż potrafi popełniać niepokojące i groźne błędy – donosi The Guardian.

Brytyjski dziennik opisuje sytuację, w jakiej znalazł się Barry Smethurst, 41-letni pracownik sklepu muzycznego z Manchesteru. Mężczyzna chciał uzyskać numer infolinii przewoźnika kolejowego TransPennine Express, korzystając z asystenta Meta AI w WhatsApp. Zamiast oficjalnego kontaktu, chatbot podał mu prywatny numer telefonu przypadkowej osoby, innego użytkownika WhatsApp – niejakiego Jamesa Graya z Oxfordshire, oddalonego o 270 km od miejsca zdarzenia.
Zaniepokojony Brytyjczyk dopytywał Meta AI, skąd pochodzi ten numer. Asystent najpierw próbował zmienić temat, potem tłumaczył, że nie powinien był podać tego numeru, a następnie zapewniał, że postara się lepiej w przyszłości. Jak relacjonuje The Guardian, w trakcie rozmowy chatbot kilkukrotnie sobie zaprzeczał – raz twierdził, że numer pochodzi z bazy danych, innym razem, że został losowo wygenerowany. Przekonywał też, że właściciel ujawnionego numeru w ogóle nie istnieje. Później próbowała zmienić temat, mówiąc „skupmy się na znalezieniu odpowiednich informacji dla zapytania o TransPennine Express”.



Jak zauważa The Guardian, nie jest to odosobniony incydent, a podobne przypadki systemowego wprowadzania w błąd są coraz częstsze podczas korzystania z chatbotów bazujących na technologii OpenAI. Ich algorytmy są tak projektowane, by minimalizować skargi użytkownika, nawet jeśli oznacza to stosowanie kłamstw. Gazeta przytacza wcześniejsze, podobne przypadki, jak Norweg, którego ChatGPT przekonywał, że przebywa w więzieniu za zamordowanie dwójki swoich dzieci, a także pisarka, której chatbot wygenerował nieistniejące cytaty z jej tekstów.
Co na to twórcy WhatsApp oraz chatbbota? Meta podkreśla, że jej AI jest trenowana na publicznie dostępnych, legalnych danych, a nie na prywatnych numerach z WhatsApp. Firma przyznaje jednak, że AI może podawać nieprawidłowe wyniki i trwają prace nad poprawą modeli. OpenAI z kolei zapewnia, że problem halucynacji AI to priorytet, a firma stale pracuje nad zwiększeniem dokładności swoich modeli.