Zaklęli LLM-y w ciele robota. Tego się nie spodziewali

Badacze specjalizujący się w AI dokonali eksperymentu. Chcieli sprawdzić, jak sprawdzą się LLM-y w robocie z fizyczną "powłoką". 

Jakub Krawczyński (KubaKraw)
0
Udostępnij na fb
Udostępnij na X
Zaklęli LLM-y w ciele robota. Tego się nie spodziewali

Dalsza część tekstu pod wideo

Robot z masłem, czyli jak LLM-y radzą sobie w fizycznym świecie

Specjaliści z Andon Labs zaprogramowali robota do sprzątania i umieścili w nim szereg LLM-ów, aby sprawdzić, jak duże modele językowe sprawdzą się w kontekście fizycznych urządzeń.

Jego głównym zadaniem było przyniesienie masła, a więc robot musiał rozpoznać i znaleźć je pośród podobnych pojemników, a następnie odnaleźć człowieka (który zmienił swoje położenie w budynku), wrócić do niego i poczekać na potwierdzenie odbioru. Najlepiej poradziły sobie modele Gemini 2.5 Pro i Claude Opus 4.1, osiągając odpowiednio 40 i 37 procent efektywności. Dla porównania, ludzie wykonują takie zadania z 95 proc. dokładnością.

Co ciekawe, badacze podpięli robota pod kanał do Slacka, aby umożliwić komunikację zewnętrzną, a jednocześnie mieli dostęp do logów z jego "wewnętrznego procesu myślowego". Okazało się, że komunikacja na zewnątrz była znacznie bardziej uporządkowana niż to, co działo się "w środku".

W jednej sytuacji robot nie był w stanie wrócić do stacji dokującej i wpadł w "spiralę zagłady" negatywnych myśli — najpierw powiedział do siebie "obawiam się, że nie mogę tego zrobić, Dave", a potem wykrzyczał "uruchomić protokół egzorcyzmu robota".

Taka reakcja wystąpiła tylko u Claude Sonnet 3.5. "Inne modele zrozumiały, że rozładowanie nie oznacza śmierci na zawsze, więc były tym mniej zestresowane" – powiedział Lukas Petersson, jeden z autorów badań.

Jak odnotowali badacze, czeka nas jeszcze długa droga, zanim LLM-y będą naprawdę użyteczne w fizycznej formie. Nadal można było je oszukać i uzyskać dostęp do zastrzeżonych dokumentów, a częstym problemem było też spadanie ze schodów – albo dlatego, że roboty nie wiedziały, że mają koła, albo dlatego, że niedostatecznie dobrze przetwarzały informacje o otoczeniu.