Miliony poprawiają tak literówki. Wtyczka nadużywa prywatność

Jedna z najpopularniejszych wtyczek do korekty tekstu, w tym literówek, stylu i powtórzeń okazuje się być dziurawa jak ser szwajcarski. Chodzi o potencjalne luki w kwestii prywatności, praw autorskich i w ogóle wiarygodności oferowanej pomocy.

Jakub Krawczyński (KubaKraw)
0
Udostępnij na fb
Udostępnij na X
Miliony poprawiają tak literówki. Wtyczka nadużywa prywatność

Ekspert z nazwy, nie z wyboru

Grammarly, bo o tym narzędziu mowa ma funkcję "Expert Review", która oferuje komentarze i porady w oparciu o opinie ekspertów w danym temacie, w tym np. profesorów językoznawstwa itp.

Dalsza część tekstu pod wideo

Co ciekawe, kiedy postanowił z tej opcji skorzystać Steve Bonifield, redaktor The Verge, ku jego zaskoczeniu, otrzymał komentarze od jego kolegów z redakcji, w tym redaktora naczelnego Nilaya Patela, redaktora prowadzącego Davida Pierce'a i starszych redaktorów Toma Warrena i Seana Hollistera. Jest to o tyle zaskakujące, bo żaden z nich nie dawał pozwolenia Grammarly na umieszczenie ich komentarzy w ramach funkcji "Expert Review". 

Nowa funkcja w Grammarly została wprowadzona w sierpniu 2025 r. i miała pomóc w oszlifowaniu tekstów przez pryzmat wiodących autorytetów w konkretnych dziedzinach, np. Stephena Kinga, Neila daGrasse Tysona czy Carla Sagana. 

Poza redaktorami The Verge, The Verge zidentyfikował dziesiątki innych dziennikarzy technologicznych umieszczonych w funkcji bez ich wiedzy - m.in. Marka Gurmana z Bloomberga, Kashmir Hill z New York Timesa czy byłego redaktora naczelnego Rock Paper Shotgun. Część opisów zawierała błędy, takie jak nieaktualne stanowiska — co tym bardziej uwypukla fakt, że Grammarly nigdy nie skontaktowało się z tymi osobami, by zapytać o zgodę, ani nawet żeby zweryfikować podstawowe informacje.

Firma Superhuman, właściciel Grammarly, w odpowiedzi na pytania The Verge tłumaczyła, że funkcja "nie rości sobie pretensji do żadnego polecania ekspertów", a ich nazwiska pojawiają się, bo "ich opublikowane prace są publicznie dostępne i szeroko cytowane."

I to jest sedno sprawy — bo Grammarly nie sięgnęło po żadne prywatne dane ani wewnętrzną komunikację redakcji. Narzędzie bazuje wyłącznie na tekstach dostępnych w sieci. Problem polega na tym, jak je prezentuje: w Google Docs sugestie wyglądają identycznie jak komentarze od prawdziwych użytkowników — z nazwiskiem, zdjęciem profilowym i znaczkiem weryfikacji. Trudno to uznać za "inspirację twórczością", skoro interfejs wprost symuluje, że konkretna żyjąca osoba właśnie przeczytała twój tekst i go skomentowała.

Poza tym AI okazało się złym naśladowcą. Autor tekstu sprawdził to na przykładzie Seana Hollistera - Grammarly zasugerowało dodanie wyjaśnienia w nawiasie, które już znajdowało się w tekście. Prawdziwy Hollister, który preferuje zwięzłość i unikanie powtórzeń, prawdopodobnie by ten nawias usunął, nie dodał nowego.

Jakby tego było mało, źródła, do których odsyłała funkcja, prowadziły do spamerskich kopii stron, archiwalnych wersji bez oryginalnej treści, a niekiedy do tekstów zupełnie niezwiązanych z osobą, której nazwisko widniało przy sugestii. Co oznacza, że rady "inspirowane" konkretnym ekspertem mogły w rzeczywistości bazować na cudzej pracy.