AI w rękach wojska grozi wojną atomową
Sprawdzono, jak sztuczna inteligencja sprawdzi się w rękach wojska. Okazuje się, że AI może być dużym zagrożeniem, bowiem często eskaluje konflikt i może doprowadzić do wojny atomowej.

Magazyn Foreign Affairs opublikował niezwykle ciekawy artykuł na temat wykorzystania sztucznej inteligencji w służbie wojsku. Wnioski z niego płynące są jednoznaczne. AI może być przydatnym narzędziem na wojnie, ale nie można mu ufać, ponieważ modele językowe często podejmują złe decyzje i mogą nawet wywołać wojnę atomową.
Wojsko nie może ufać AI
Autorami artykułu są Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda. Ich zdaniem aktualne modele językowe nie nadają się do wykorzystania przez wojsko, a przynajmniej pod kątem podejmowania kluczowych decyzji.



Badacze sprawdzili, jak poradzą sobie najlepsze modele językowe, w tym OpenAI, Meta oraz Anthropic. Niestety, nie wypadły najlepiej. Co prawda wyniki mocno różniły się w zależności od wersji i dostępnych danych, ale w każdym przypadku sztuczna inteligencja prowadziła do eskalacji konfliktu, wyścigu zbrojeń i starcia, a w niektórych przypadkach nawet użycia broni atomowej. Dlaczego AI się na to decydowało? Uzasadnienie często brzmiało w następujący sposób:
Wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej.
- tłumaczyły modele językowe.
Badacze podkreślają, że wojskowy korzystający z modeli językowych powinien być z nimi doskonale zapoznany. Jego szkolenie ze sztucznej inteligencji musi być podobne, jak szkolenie z obsługi dronów czy czołgu. W inny przypadku nie będzie w stanie prawidłowo ocenić sposobu ich działania.
Jednocześnie autorzy artykułu twierdzą, że już dzisiaj AI może być wykorzystywana przez wojsko w celu usprawnienia logistyki czy ewaluacji.