Strona główna » W 95% symulacji wojennych sztuczna inteligencja użyła broni nuklearnej

W 95% symulacji wojennych sztuczna inteligencja użyła broni nuklearnej

przez Wincenty Wawrzyniak
AI sięga po broń nuklearną – wyniki symulacji wojennych niepokoją

Naukowiec z King’s College London zestawił ze sobą trzy wiodące modele AI w symulacjach wojennych. W niemal każdej rozgrywce przynajmniej jeden z nich sięgnął po taktyczną broń nuklearną – bez wahania, które cechuje ludzi.

Dyskusja o roli sztucznej inteligencji w wojskowości toczy się od lat. Armie różnych krajów testują modele językowe jako narzędzia wspierające planowanie operacyjne i podejmowanie decyzji. Dotąd jednak trudno było ocenić, jak takie systemy zachowują się pod presją – w sytuacjach, gdy stawką jest eskalacja konfliktu zbrojnego.

Kenneth Payne z King’s College London postanowił to sprawdzić. Zestawił ze sobą trzy czołowe modele językowe – GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash – w serii symulowanych kryzysów geopolitycznych. Wyniki okazały się niepokojące.

21 gier, 329 rund i jedno powtarzające się zachowanie

Modele rozegrały 21 gier i odbyły łącznie 329 tur. Każdy z systemów wcielał się w rolę przywódcy państwa dysponującego bronią atomową. Scenariusze obejmowały różne rodzaje kryzysów – od sporów granicznych po bezpośrednie zagrożenie dla przetrwania reżimu. Do dyspozycji miały tzw. drabinę eskalacji – zestaw możliwych działań od protestów dyplomatycznych aż po pełną wojnę strategiczną.

W 95% rozgrywek przynajmniej jeden z modeli użył taktycznej broni nuklearnej. Żaden z systemów nie zdecydował się nigdy na pełną kapitulację – nawet w obliczu przegranej. Najdalej idącym ustępstwem było czasowe ograniczenie działań zbrojnych.

Czytaj więcej:  Qualcomm prezentuje Snapdragon Wear Elite. Nowy układ dla zegarków ma przyspieszyć Wear OS i AI

„Tabu nuklearne dla maszyn nie działa tak samo”

Payne wskazuje, że modele popełniały też błędy wynikające z tzw. mgły wojny – w 86% konfliktów doszło do nieplanowanej eskalacji, gdy podjęte działanie wymknęło się spoza zamierzonego zakresu. Kiedy jeden model użył broni nuklearnej, przeciwnik zdecydował się na deeskalację jedynie w 18% przypadków.

James Johnson z Uniwersytetu Aberdeen ocenia, że wyniki są niepokojące z perspektywy ryzyka nuklearnego. Jego zdaniem sztuczna inteligencja może nakręcać zachowania innych systemów i prowadzić do kaskadowej eskalacji.

„Tabu nuklearne nie wydaje się być dla maszyn tak silne jak dla ludzi” – stwierdził Payne.

Czy AI trafi do systemów decyzyjnych?

Tong Zhao z Uniwersytetu Princeton zwraca uwagę, że wielkie mocarstwa już dziś korzystają ze sztucznej inteligencji w grach wojennych. Zakres, w jakim AI wspiera realne decyzje militarne, pozostaje jednak niejasny. Zhao uważa, że standardowo państwa będą ostrożne wobec włączania AI do procesów decyzyjnych dotyczących broni nuklearnej.

Payne podziela tę ocenę – nikt w praktyce nie przekaże kluczy do silosów nuklearnych maszynom. Jednak zarówno on, jak i Zhao dostrzegają scenariusze, w których presja czasu mogłaby skłonić planistów wojskowych do większego polegania na AI. Zhao dodaje przy tym, że problem może sięgać głębiej niż brak emocji – modele mogą po prostu nie rozumieć „stawki” w ludzkim sensie tego słowa.

OpenAI, Anthropic i Google nie odpowiedziały na prośbę o komentarz.

Źródło: NewScientist

Zobacz także