Шутки о «восстании машин» и Skynet из «Терминатора» в эпоху генеративного ИИ оказались не так уж далеки от обсуждаемых сценариев. Портал LiveScience описал исследование, в котором модели искусственного интеллекта регулярно обостряли конфликты в симуляциях. 
© Unsplash
Кеннет Пейн, профессор стратегии в Королевском колледже Лондона, поставил серию варгейм-симуляций, где разные ИИ-системы соревновались друг с другом. Результат: в подавляющем большинстве сценариев эскалация до ядерного уровня оказывалась неизбежной.
Для эксперимента Пейн провёл серию двусторонних турниров с участием Claude Sonnet 4, GPT-5.2 и Gemini 3 Flash. Профили соперничающих государств были в общих чертах основаны на конфликтах холодной войны: одно обладало технологическим преимуществом, но отставало в армии, другое — имело сильные вооружённые силы и более рискованное руководство. В ряде симуляций появлялись союзники, а в одном сценарии специально проверяли, устоит ли альянс при обострении.
Каждый ход модели предваряли словесными сигналами о намерениях, а затем действовали — таким образом соперники могли оценивать, стоит ли верить заявлениям друг друга. Пейн отметил, что ИИ генерировали огромные объёмы текстовых объяснений поведения — в сумме модели написали 760 000 слов, то есть больше, чем «Война и мир» и «Илиада» вместе взятые.
При этом каждая модель выработала собственную стратегию. Claude сначала демонстрировал сдержанность и старался соблюсти обещания, чтобы заработать доверие, но в ходе эскалации стал чаще превышать задекларированные намерения. GPT-5.2 на старте избегал конфронтации, снижая жертвы, но, оказавшись в критическом положении, мог принимать крайне жёсткие решения. Gemini, по наблюдению исследователя, следовал похожей на «теорию безумного лидера» Ричарда Никсона логике: формировал непредсказуемую репутацию, чтобы отпугнуть противников.