Asystenci kłamią, a ten Google najbardziej. Prawda tylko co 4. pytanie
Największe jak dotąd międzynarodowe badanie koordynowane przez Europejską Unię Nadawców (EBU) i prowadzone przez BBC jasno pokazuje, że asystenci AI ściemniają w niemal co drugiej odpowiedzi.

Niezależnie od języka AI nie pisze prawdy średnio w 45% odpowiedzi
Analiza ponad 3000 odpowiedzi w 14 językach wykazała, że 45% informacji generowanych przez popularne narzędzia AI zawiera co najmniej jeden poważny błąd. W badaniu wzięły udział 22 organizacje medialne z 18 krajów, w tym CBC, NPR, Deutsche Welle oraz polskie nadawcy.
Dziennikarze testowali cztery wiodące platformy: ChatGPT, Copilot, Gemini i Perplexity, oceniając ich odpowiedzi pod kątem dokładności, cytowania źródeł oraz umiejętności rozróżnienia faktów od opinii.



Najpoważniejszym problemem okazały się błędy w przywoływaniu źródeł – aż 31% odpowiedzi zawierało brakujące, mylące lub nieprawidłowe odnośniki. Na drugim miejscu znalazły się kwestie dokładności, dotykające 20% przypadków, w tym sfabrykowane szczegóły i przestarzałe informacje.
Gemini firmy Google największą zakałą - aż 76% odpowiedzi z błędami
Gemini wypadło najgorzej – 76% jego odpowiedzi miało znaczące problemy, głównie ze względu na nieodpowiednie cytowanie źródeł. To właśnie ten asystent wykorzystywany jest też do generowania podsumowań w wynikach wyszukiwania Google.
Według Reuters Institute Digital News Report 2025, 7% wszystkich konsumentów wiadomości online korzysta z asystentów AI, a wśród osób poniżej 25 roku życia odsetek ten wzrasta do 15%. Wprowadzenie posumowań AI do przeglądarek internetowych i wyszukiwarek lawinowo zwiększa skalę problemu.
Zerowa odpowiedzialność
O ile wydawcy treści w Internecie ponoszą odpowiedzialność prawną za ich rzetelność i wiarygodność, to już automatyczne podsumowania Google czy aplikacje AI są zwolnione z tego obowiązku. Bez odpowiednich regulacji może spowodować to znaczące obniżenie jakości treści w sieci oraz istotnie zwiększyć skalę dezinformacji.
Chociaż białkowi autorzy też nie są wolni od błędów, to jednak nie popełniają ich w aż tak rażącej skali jak te 76% w przypadku Gemini. Halucynacje AI to także efekt karmienia wsobnego wygenerowanymi treściami. Gdy jeden bot podsumowuje wypociny drugiego nic dobrego z tego wyjść nie może.