В Госдуму внесли законопроект, который бы защищал голос гражданина России от его использования без согласия владельца, а также от его подделки мошенниками и генерации с помощью искусственного интеллекта (ИИ). Документ размещен на портале электронной базы данных Госдумы.
Поправки предлагается внести в Гражданский кодекс России и дополнить его статьей 152.3 — «Охрана голоса гражданина». Авторами законопроекта стали сенаторы Андрей Клишас, Артем Шейкин, Наталья Кувшинова, Руслан Смашнев, а также депутат Госдумы Даниил Бессарабов. Также отмечается, что норматив разрабатывали при участии альянса в сфере ИИ и Национальной федерацией музыкальной индустрии.
В пояснительной записке к проекту отмечается, что с учетом развития новых технологий и их массового использования во всех сферах жизни появляются правовые вопросы, для решения которых нет необходимой законодательной базы.
«При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и «производные» записи могут быть использованы способом, неприемлемым для человека — обладателя голоса», — говорится в документе.
Авторы инициативы обращают внимание, что голос является «уникальной характеристикой человека, позволяющей идентифицировать его личность» и представляет собой «нематериальное благо», нуждающееся в дополнительной охране.
Если законопроект примут, то звучание голоса гражданина будет возможно только с его непосредственного согласия, а после смерти — с согласия ближайших родственников. Но есть и исключения, которые позволяют применять голос человека без его ведома.
В частности, речь идет об использовании голоса человека в государственных, общественных или других публичных целях, а также в случаях, когда запись была сделана в открытых и доступных для посещения местах, например, на массовых мероприятиях.
Бизнес-консультант по безопасности компании Positive Technologies Алексей Лукацкий ранее в разговоре с RTVI большой угрозой развития ИИ назвал «дипфейки» — технологию преобразования изображений на основе искусственного интеллекта и нейросетей.
По мнению эксперта, в 2025 году подобные технологии «выйдут на определенное плато, когда дипфейк смогут создавать абсолютно все без исключения, причем очень сложные и многомодальные».
В середине августа певица Лариса Долина стала жертвой мошенников. Ее представитель сообщил, что злоумышленники сгенерировали её изображение с помощью нейросети и использовали его для обращения в микрокредитную организацию с целью обмана.