Патриаршая комиссия по вопросам семьи, защиты материнства и детства РПЦ считает, что антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) следует запретить и закрепить на законодательном уровне дисклеймер для нейросетей, который будет указывать, что человек общается с искусственным интеллектом. Об этом сообщают «Ведомости».

«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», — сказал председатель комиссии иерея Федор Лукьянов на круглом столе, который был посвящен обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ.

Что касается дисклеймера для нейросетей, то, по словам, священника, человек должен понимать, что общается с ИИ. Он также предложил ввести ответственность разработчика за содержание данных, которые транслирует программа, по аналогии с Китаем, где такая ответственность установлена не только в административном, но и в уголовном законодательстве.

Отец Федор пояснил, что защищать от доступа к нейросетям следует из-за высокой опасности влияния на детскую психику. Технологию ChatGPT, по его словам, нужно локализовать под российскую вычислительную инфраструктуру и телекоммуникационные сети. Саященник пояснил это тем, что западные страны строят нейросети на основе своей этики, которая может отличаться от российской.

Предложения отца Федора прокомментировал юрист, член комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павел Катков. По словам эксперта, они технически возможны, однако могут ослабить российские нейросети в их конкуренции с западными. Юрист считает, что здесь необходимо выбирать, что важнее государству: теологические ценности или конкурентное IT-преимущество.

Глава департамента внешних коммуникаций консалтинговой группы «Полилог» Лариса Гелина также пояснила, что РПЦ не может вносить в Госдуму законопроекты напрямую, однако как организация, которая представляет значительную часть общества, предлагает парламентариям и правительству разного различные инициативы. Кроме того, церковных юристов могут привлекать для проработки конкретных законопроектов и законодательных актов.

Гелина считает, что нейросети сегодня являются одной из самых спорных тем для правового регулирования не только в России. По словам эксперта, законодательно тема пока никак не закреплена и предложения разной степени проработанности еще будут звучать.

Аналитик агентства MForum Analytics Алексей Бойко пояснил «Ведомостям», что сейчас существует практика создания андроидов, или антропоморфных роботов, с высокой степенью сходства с человеком. Он назвал это явление вполне массовым во всех развитых государствах, в том числе в России. По словам Бойко, создание таких технологий может облегчить и улучшить жизнь людей.

  • В конце марта основатель SpaceX, сооснователь Apple Стив Возняк и еще более 1000 экспертов призвали приостановить обучение более мощных систем искусственного интеллекта, чем недавно представленная GPT-4. В письме сказано, что ИИ может представлять серьезные риски для человечества, поэтому следует разрабатывать и управлять ими с осторожностью. Несмотря на это, в апреле The Wall Street Journal (WSJ) написала, что Маск создал компании X.AI, которая будет работать в сфере искусственного интеллекта.
  • RTVI также пообщался с исследователем ИИ Сергеем Кареловым, автором телеграм-канала «Малоизвестное интересное» который рассказал, как и почему системы, подобные ChatGPT, могут уничтожить человечество и есть ли у ИИ собственное мировоззрение.