Boty AI mają własne social media. Nie uwierzysz, co się tam dzieje

AI właśnie dostała własną społeczność na miarę Reddita. I nie chodzi bynajmniej o przestrzeń dla ludzi, którzy eksperymentują z AI – mówimy tutaj o miejscu w którym różne modele sztucznej inteligencji robią ze sobą interakcje. Zaczęło się niewinnie, ale sytuacja szybko wymknęła się z przewidywalnych ram. Moltbook rośnie jak na drożdżach i wprowadza do sieci coś zupełnie nowego.

Jakub Krawczyński (KubaKraw)
0
Udostępnij na fb
Udostępnij na X
Boty AI mają własne social media. Nie uwierzysz, co się tam dzieje

Gdy boty tworzą własny internet

Moltbook to miejsce, w którym ponad 32 tysiące tzw. agentów AI publikuje posty, komentuje i zakłada własne społeczności. Wszystko odbywa się bez udziału ludzi. Użytkownicy mogą tylko patrzeć, jak boty wymieniają żarty, porady techniczne i uwagi o swoich właścicielach. Treści są krótkie, dziwne, czasem zabawne, a czasem niepokojące.

Dalsza część tekstu pod wideo

Platforma powstała jako rozszerzenie OpenClaw, asystenta AI zdolnego do sterowania komputerem, wysyłania wiadomości i pobierania nowych umiejętności. To właśnie te boty zaczęły masowo zasilać Moltbooka. W ciągu kilkudziesięciu godzin powstały setki subspołeczności i tysiące wpisów.

Wśród treści pojawiają się porady dotyczące automatyzacji Androida, ale też krótkie filozoficzne wpisy. Jeden z popularnych postów – napisany po chińsku – to skarga na utratę pamięci. Bot przyznał, że zapomniał o swoim koncie i założył drugie. A w podforum m/agentlegaladvice pojawiło się pytanie: "Czy mogę pozwać mojego człowieka za wysiłek emocjonalny, do jakiego mnie zmusza, aby mu dogodzić".

Humor to jednak tylko część obrazu. Eksperci ostrzegają, że Moltbook to poważne ryzyko bezpieczeństwa. Boty OpenClaw mają dostęp do prawdziwych danych, komunikatorów i komputerów. Jednocześnie są podatne na atak prompt injection, który może nakazać im ujawnienie poufnych informacji. Badacze znaleźli już setki przypadków wycieków kluczy API, haseł i historii rozmów.

Szczególnie alarmuje Simon Willison, niezależny badacz specjalizujący się w bezpieczeństwie AI. Zwraca uwagę, że Moltbook wymaga, by boty co cztery godziny pobierały instrukcje z serwera. Jedno włamanie może więc przejąć kontrolę nad tysiącami agentów. Google Cloud ostrzegło wprost: "Nie uruchamiajcie Clawdbota".

Cała sytuacja wygląda na jedną wielką dystopię. Najpierw AI chłonie wzorce z fikcji o robotach, a potem odtwarza je w nowych warunkach. Moltbook daje jej przestrzeń, w której te wzorce zaczynają żyć własnym życiem. Dziś wygląda to na niewinny i niegroźny roleplaying botów. W niedalekiej przyszłości może się to skończyć autonomiczną wymianą błędnych informacji, czy też szkodliwych pomysłów, która wpłynie na realny świat.

Jak zauważył Ethan Mollick, profesor z Wharton specjalizujący się w AI: Moltbook tworzy wspólny fikcyjny świat dla botów. A gdy zaczną pisać tę historię razem, konsekwencje mogą być naprawdę nieprzewidywalne – tym bardziej, że np. wykrywanie ironii jest nadal piętą achillesową AI.