Разработчик нейросети ChatGPT — компания OpenAI — сообщила о пресечении «тайных операций» по воздействию на общественное мнение и политические процессы. Об этом сообщается в пресс-релизе от 30 мая на сайте компании. По ее утверждению, «операции влияния» с использованием ИИ-инструментов OpenAI проводили структуры из России, Китая, Ирана и Израиля.

В сообщении говорится, что в последние три месяца пользователи из этих стран использовали технологии искусственного интеллекта для создания большого количества изображений и текстов на определенную тематику. В числе затрагиваемых тем — боевые действия на Украине, палестино-израильский конфликт, выборы в Индии, политическая обстановка в Европе и США.

«Злоумышленники используют нашу платформу, чтобы улучшить свой контент и повысить эффективность работы», — говорится в отчете.

Как утверждает OpenAI, в рамках «мошеннической деятельности» ИИ-инструменты использовались для различных задач. Среди них — создание коротких комментариев и объемных статей на разных языках, перевод и корректура текста, генерация никнеймов и биографических справок для учетных записей в соцсетях, поиск и исправление ошибок в программных кодах, изучение активности пользователей в соцсетях.

«Российские операции влияния»

Из России, утверждает OpenAI, кампанию курировали две сети. Одна из них — Doppelganger («Двойник»). Ранее западные СМИ утверждали, что такое название носит кампания, в рамках которой под видом международных новостей в соцсетях распространяется пророссийская повестка.

Adobe Stock

OpenAI в своем отчете пишет, что участники «Двойника» использовали языковые ИИ-модели для написания комментариев на английском, французском, немецком, итальянском и польском языках, после чего посты публиковались в соцсети X и на платформе 9GAG. Также в рамках этой кампании переводились и редактировались статьи на английском и французском языках, которые затем размещались на сайтах, связанных с Doppelganger. Кроме того, представители «Двойника» с помощью ИИ перерабатывали новостные тексты в публикации для Facebook (принадлежит Meta*).

Еще одна «тайная операция», которую якобы проводит Россия, была выявлена в интернете впервые, говорится в отчете OpenAI. Она носит название Bad Grammar («Плохая грамматика»). Ее участники создавали с помощью ИИ-моделей преимущественно короткие политические комментарии на русском и английском языках в Telegram, которые размещались конвеерным способом под публикациями и в ответ на сообщения других пользователей. Публикации на английском языке преимущественно создавались от лица американцев с разными политическими взглядами, русскоязычные комментарии были менее персонифицированными. Код для автоматического размещения таких публикаций Bad Grammar якобы тоже отлаживала при помощи ChatGPT.

Контент в рамках этой «операции» нацелен на аудиторию из Украины, Молдовы, стран Балтии и США. Темами комментариев, сгенерированных с помощью искусственного интеллекта, в основном становились боевые действия на Украине, политическая ситуация в Молдове и странах Балтии, а также политика США. Тема украинского конфликта была основной в русскоязычных комментариях Bad Grammar, а англоязычные в основном фокусировались на вопросах иммиграции, экономических проблемах и последних новостях — все эти темы зачастую использовались для того, чтобы оспорить необходимость поддержки США Украины.

Авторы отчета отмечают, что после теракта в «Крокус Сити Холле» в Москве часть комментариев Bad Grammar переориентировались на новую аудиторию в Telegram — групп, ориентированных на Таджикистан. В сгенерированных с помощью ИИ комментариях призывали к единству между таджиками и русскими и уважению к российским законам.

Кампании других стран

Также в отчете описаны «тайные операции», которые, как утверждает OpenAI, велись из Китая и Ирана. В случае с КНР речь идет о сети «Spamouflage» («Спамуфляж»), представители которой, в частности, изучали активность пользователей в соцсетях, создавали тексты на китайском, английском, японском и корейском языках, которые затем размещались в соцсети X и на платформах Medium и Blogspot. Кроме того, участники «Спамуфляжа» занимались поиском и исправлением ошибок в программных кодах для управления базами данных и сайтами.

Название иранской «операции» в отчете OpenAI указано как «Международный союз виртуальных медиа». В компании утверждают, что ее представители использовали ИИ-модели для создания и перевода длинных статей, заголовков и фрагментов программного кода.

Adobe Stock

Описывая «тайную операцию», якобы проводившуюся из Израиля, OpenAI пишет, что за ней стоит компания STOIC, создающая с помощью ИИ-инструментов контент о конфликте в секторе Газа и о выборах в Индии. Из-за низкого уровня вовлеченности в рамках различных кампаний эта «операция» получила название «Zero Zenon» («Нулевой Зенон», по имени древнегреческого основателя школы стоицизма Зенона Китийского).

Итоги расследования

По оценкам OpenAI, увеличить размер своей аудитории или охваты за счет ИИ-инструментов компании группам не удалось.

«Используя шкалу <…>, которая оценивает влияние <…> от 1 (самый низкий) до 6 (самый высокий), ни одна из пяти операций, включенных в наши тематические исследования, не получила оценку выше 2», — говорится в отчете.

В частности, участники некоторых сетей посредством ИИ-моделей OpenAI генерировали ответы на свои собственные публикации, создавая видимость активности в соцсетях. «Это отличается от привлечения подлинной активности, чего ни одна из описываемых здесь сетей не смогла добиться в значительной степени», — резюмировала компания.

Разработчик ChatGPT отметил, что сгенерированный участниками «операций» текст содержал языковые ошибки.

В OpenAI заявили, что препятствуют проведению «тайных операций влияния» с помощью своих систем безопасности, в том числе инструментов на базе искусственного интеллекта.

«Например, мы неоднократно наблюдали случаи, когда наши модели отказывались генерировать текст или изображения, которые запрашивали исполнители», — отмечается в отчете.

*деятельность Meta по распространению Facebook и Instagram в России признана экстремистской и запрещена