Компания Google удалила со страницы, где излагает свои принципы использования технологий искусственного интеллекта (ИИ), обязательство не применять его в оружейных технологиях. На это обратило внимание агентство Bloomberg.

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

— технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);

— оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;

— технологии слежки, нарушающие международные нормы;

— технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

Одна из бывших руководителей команды Google по этичному использованию ИИ Маргарет Митчелл предположила, что компания теперь будет напрямую заниматься тем, что раньше считала недопустимым для себя.

«Удаление этого [раздела] сводит на нет работу, которую проделали в Google многие люди из сферы этического ИИ и активисты, и, что еще более проблематично, это означает, что Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», — цитирует ее Bloomberg.

«ИИ для нацбезопасности»: что говорят в Google

Alastair Grant / AP

В самой компании в ответ на просьбу агентства о комментарии сослались на заявление в блоге Google, опубликованное 4 февраля. В нем старший вице-президент Google Джеймс Манийка и гендиректор разработчика ИИ Google DeepMind Демис Хассабис среди прочего сообщают об обновлении принципов ИИ.

«Глобальная конкуренция за лидерство в области ИИ происходит в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — говорится в заявлении.

В заявлении нет прямого упоминания оружейных технологий, но отмечается, что «ИИ все чаще разрабатывается организациями и правительствами для использования в таких областях, как здравоохранение, наука, робототехника, кибербезопасность, транспорт, национальная безопасность, энергетика, климат и многое другое».

Руководство Google обещает в заявлении «ответственно подходить к ИИ на протяжении всего жизненного цикла разработки и внедрения», понимая, что эта развивающаяся технология «создает новые сложности и риски».

Одним из тех, кто давно предупреждает об опасности развития ИИ, хотя сам же в это инвестирует, является основатель компаний SpaceX и Tesla Илон Маск, возглавивший при президенте Дональде Трампе департамент эффективности правительства США (DOGE). В частности, в 2023 году он заявил, что ИИ «имеет потенциал уничтожения цивилизации».