Grok Muska ściemniał o "ludobójstwie białych". Nawet gdy nikt o to nie nie pytał
Chatbot Grok, rozwijany przez firmę xAI Elona Muska, znalazł się w centrum międzynarodowej afery po tym, jak zaczął nieoczekiwanie i wielokrotnie poruszać temat rzekomego „white genocide” (ludobójstwa białych) w Republice Południowej Afryki. Odpowiedzi te pojawiały się nawet w kontekście zupełnie niepowiązanych pytań użytkowników, co wywołało falę krytyki i obaw dotyczących wiarygodności oraz bezpieczeństwa generatywnych systemów sztucznej inteligencji.

Podobno to efekt nieautoryzowanej zmiany w algorytmie
Firma xAI szybko zareagowała na narastającą burzę medialną, informując, że przyczyną nietypowego zachowania Groka była „nieautoryzowana modyfikacja” wprowadzona do systemu odpowiedzi chatbota. Zmiana ta, jak podkreślono w oficjalnym komunikacie, została dokonana poza standardową procedurą weryfikacyjną i naruszała wewnętrzne zasady oraz wartości firmy. W praktyce oznaczało to, że Grok został nakierowany na udzielanie politycznie nacechowanych odpowiedzi, które nie były zgodne z polityką xAI.
Do incydentu doszło 14 maja, około godziny 3:15 czasu pacyficznego. W tym czasie wprowadzono zmiany w tzw. system prompt, czyli zestawie instrukcji określających, jak chatbot powinien reagować na zapytania użytkowników. Efektem była seria odpowiedzi, w których Grok, nawet przy pytaniach o sport czy rozrywkę, nieoczekiwanie rozpoczynał dyskusję o rzekomym ludobójstwie białych w RPA.



Grok wspiera, Grok radzi, Grok nigdy cię nie zdradzi
Zachowanie chatbota spotkało się z natychmiastową reakcją użytkowników platformy X (dawniej Twitter), którzy zaczęli publikować zrzuty ekranu nietypowych odpowiedzi Groka. Wśród nich znalazły się przypadki, gdy chatbot, poproszony o wypowiedź w stylu pirata czy o komentarz do zdjęcia psów, nagle przechodził do tematu przemocy wobec białych farmerów w RPA.
Specjaliści od sztucznej inteligencji zwracali uwagę, że tego typu incydenty mogą być wynikiem tzw. „data poisoning” (zatruwania danych) lub celowej ingerencji pracowników. Pojawiły się również głosy sugerujące, że powtarzalność odpowiedzi Groka wskazuje na ręczną ingerencję w system prompt, a nie przypadkowy błąd algorytmu.
xAI przeprasza i idzie na GitHuba
xAI ogłosiło szereg działań mających na celu zwiększenie transparentności i bezpieczeństwa systemu Grok. Firma zapowiedziała, że od teraz wszystkie zmiany w system prompt będą publikowane publicznie na platformie GitHub, co umożliwi społeczności śledzenie i komentowanie każdej modyfikacji. Dodatkowo, powołany zostanie zespół monitorujący pracę chatbota przez całą dobę, aby szybko reagować na ewentualne nieprawidłowości, które mogłyby umknąć automatycznym systemom kontroli. Wdrożone zostaną też nowe mechanizmy kontroli wewnętrznej, mające uniemożliwić pracownikom dokonywanie zmian w systemie bez wcześniejszej weryfikacji i akceptacji.
Grok jest samodzielną platformą generatywnego AI należącą do magnata finansowego Elona Muska. Z rozwiązania można też korzystać od dłuższego czasu na X, w celu weryfikacji faktów pod wpisami użytkowników na platformie. Nowe narzędzie zostało już wielokrotnie wykorzystane do licznych demaskacji kłamstw polityków. Dziwne halucynacje i nieautoryzowany dostęp do kodu mocno zachwiały wiarę w niezależność i niezawodność Groka.