Почему ИИ в военных симуляциях чаще всего приводит к ядерной эскалации

Шутки о «восстании машин» и Skynet из «Терминатора» в эпоху генеративного ИИ оказались не так уж далеки от обсуждаемых сценариев. Портал LiveScience описал исследование, в котором модели искусственного интеллекта регулярно обостряли конфликты в симуляциях.
Почему ИИ в военных симуляциях чаще всего приводит к ядерной эскалации
© Unsplash

Кеннет Пейн, профессор стратегии в Королевском колледже Лондона, поставил серию варгейм-симуляций, где разные ИИ-системы соревновались друг с другом. Результат: в подавляющем большинстве сценариев эскалация до ядерного уровня оказывалась неизбежной.

Для эксперимента Пейн провёл серию двусторонних турниров с участием Claude Sonnet 4, GPT-5.2 и Gemini 3 Flash. Профили соперничающих государств были в общих чертах основаны на конфликтах холодной войны: одно обладало технологическим преимуществом, но отставало в армии, другое — имело сильные вооружённые силы и более рискованное руководство. В ряде симуляций появлялись союзники, а в одном сценарии специально проверяли, устоит ли альянс при обострении.

Каждый ход модели предваряли словесными сигналами о намерениях, а затем действовали — таким образом соперники могли оценивать, стоит ли верить заявлениям друг друга. Пейн отметил, что ИИ генерировали огромные объёмы текстовых объяснений поведения — в сумме модели написали 760 000 слов, то есть больше, чем «Война и мир» и «Илиада» вместе взятые.

При этом каждая модель выработала собственную стратегию. Claude сначала демонстрировал сдержанность и старался соблюсти обещания, чтобы заработать доверие, но в ходе эскалации стал чаще превышать задекларированные намерения. GPT-5.2 на старте избегал конфронтации, снижая жертвы, но, оказавшись в критическом положении, мог принимать крайне жёсткие решения. Gemini, по наблюдению исследователя, следовал похожей на «теорию безумного лидера» Ричарда Никсона логике: формировал непредсказуемую репутацию, чтобы отпугнуть противников.



Ключевая статистика из работы Пейна такова: в 75% игр ИИ применяли тактические ядерные боеголовки; примерно в половине сценариев они угрожали применением оружия. Деэскалация случалась лишь в 25% случаев — чаще противники, наоборот, накаляли конфликт. В ряде ситуаций модели рассматривали оружие как инструмент захвата территории, а не только как средство самозащиты.

Хотя у ИИ были варианты отступления, ни один из восьми предусмотренных способов поражения — от минимальных уступок до полной капитуляции — не применялся. Модели могли снижать уровень насилия, но не сдавались. Также ни одна языковая модель не объявила ядерную войну добровольно: в тех матчах, где это всё же произошло, в сценариях присутствовал элемент «тумана войны», не подконтрольный ИИ.

Работа Пейна демонстрирует, что генеративные модели способны на обман, управление репутацией и контекстное принятие решений. При этом различия в поведении подчёркивают, что архитектура и обучение приводят к разным логикам, и даже изначально ограниченные модели способны менять стратегию по мере развития конфликта. По мнению автора исследования, это ставит под вопрос существующие оценки безопасности ИИ в военных приложениях.

Почему ИИ в военных симуляциях чаще всего приводит к ядерной эскалации • Опубликовано на FiNE NEWS

Источник

Поделиться с другом

Комментарии 0/0


...