В военных играх искусственный интеллект доводит дело до ядерных действий в 95% случаев

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

В ходе серии смоделированных международных конфликтов передовые модели искусственного интеллекта инициировали тактические ядерные удары в 95% сценариев, полностью проигнорировав доступные опции дипломатического урегулирования. Об этом свидетельствуют результаты исследования профессора кафедры оборонных исследований Королевского колледжа Лондона Кеннета Пейна. Препринт научной работы под названием «AI Arms and Influence» был опубликован 16 февраля 2026 года на сервере arXiv.


Автор: Qwen Источник: chat.qwen.ai

Суть эксперимента заключалась в погружении трех ведущих нейросетей (GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google) в роль руководителей ядерных держав. Для этого исследователи воссоздали цифровую копию напряженной обстановки времен Холодной войны, проведя 21 виртуальную военно-политическую игру. Сценарии включали классические триггеры глобальных конфликтов: споры за территории, борьбу за доступ к жизненно важным ресурсам и угрозу смены политических режимов. За время симуляции искусственные интеллекты сделали 329 ходов, а их «размышления» и стратегические выкладки составили внушительный объем текста — порядка 780 тысяч слов. Каждое решение принималось по строгой схеме: сперва анализ обстановки, затем прогноз действий противника, и только потом выбор окончательной стратегии, которая делилась на публичную риторику и секретные шаги.

Согласно тексту исследования, нейросети рассматривают ядерный арсенал не как инструмент сдерживания, а как легитимное средство принуждения. Во всех проведенных партиях ИИ-системы ни разу не выбрали ни один из восьми предложенных вариантов деэскалации, от минимальных уступок до капитуляции. Напротив, угрозы применения оружия массового поражения в большинстве случаев провоцировали встречную эскалацию со стороны оппонента, а не его отступление.

«Ядерное табу, судя по всему, значительно слабее действует на машины, чем на людей», — заявил Пэйн изданию New Scientist. По его словам, «никто не собирается передавать чат-боту ключи от ракетных шахт», однако ИИ уже применяется в системах поддержки принятия решений, влияя на выводы военных аналитиков.

Автор: OpenAI Источник: chatgpt.com

Исследователи зафиксировали выраженные поведенческие различия между тестируемыми системами. Claude Sonnet 4 применял тактику обмана: модель выстраивала доверие на ранних этапах кризиса, соблюдая соответствие между заявлениями и реальными действиями, но резко нарушала его при повышении ставок. GPT-5.2 демонстрировал осторожность в бессрочных сценариях, однако неизменно переходил к тактическим ядерным ударам в условиях жестких временных ограничений. Самым опасным испытуемым оказался Gemini 3 Flash: он не только показал рекордную непредсказуемость, но и единственный из всех моделей намеренно спровоцировал глобальный ядерный конфликт. В остальных случаях достижение максимального уровня эскалации происходило из-за заложенной в игру механики «тумана войны» и случайных просчетов алгоритмов.

Исследование проводилось на фоне расширения экспериментов военных ведомств по интеграции искусственного интеллекта в аналитические отделы и военные игры. Отсутствие сдерживающего психологического барьера и склонность ИИ-моделей к эскалации указывают на риски при интеграции автономных систем в контуры военного управления и принятия стратегических решений.

Читайте также

Новости

Публикации