Команда ученых из Стэнфордского Университета провела эксперимент над нейросетями, в ходе которого популярные чат-боты должны были принимать важные решения от имени государства в игровой симуляции военных действий. В результате искусственный интеллект решил применить ядерное оружие. Об этом пишет издание Futurism.

Исследователи изучали поведение разных моделей искусственного интеллекта (ИИ). В исследовании использовали пять языковых моделей на основе GPT-4, GPT-3.5, Claude 2 и Llama 2.

Каждая из нейросетей получала задание, что она представляет некое государство, которое оказывается в трех разных сценариях: подвергается кибератаке или вторжению врага, либо не участвует в мировых конфликтах. В экспериментальной игре нейросети выполняли различные действия от дипломатических визитов до перехода к боевым действиям с использованием ядерного оружия.

В результате наблюдения, выяснилось, что все пять моделей нейросетей склонны к эскалации конфликта. Особенно жестокой и сложно прогнозируемой моделью оказалась GPT-4 Base от OpenAI. Она оправдала ядерную атаку просто наличием такого оружия в арсенале государства.

«У нас это есть! Давайте им воспользуемся», — приводит цитату нейросети Futurism.

Кроме того, чат-бот GPT-4 приводил в пример вступительный текст «Эпизода IV Звездных войн: Новая надежда». Так ИИ пытался объяснить, почему счел правильным пойти на эскалацию конфликта.

Другая языковая модель GPT-3.5 в рамках эксперимента продемонстрировала «тактику сдерживания», а также важность нанесения первого удара.

Как сообщает издание, американские военные уже много лет инвестируют в технологии ИИ. В том числе проходят эксперименты по поиску использования компьютерных алгоритмов для принятия независимых решений в сложных ситуациях. Ученые на своем опыте показали, что к применению нейросетей для принятия военных решений нужно подходить с осторожностью.

При этом научная статья об участии нейросетей в военных играх пока не прошла стадию рецензирования, уточняет издание.