Российским властям надо активнее работать над ограничительными мерами, которые защитят граждан от дипфейков. К этому, как сообщает «Телеспутник», на пленарном заседании национального форума по информбезопасности «Инфофорум-2025» 5 февраля призвал председатель комитета Госдумы по информации и связи Сергей Боярский.
По его словам, из-за использования дипфейков миллионы людей за последние годы «столкнулись с недопустимыми событиями в их судьбах», а с помощью цифровых технологий было совершено «беспрецедентное количество преступлений».
Боярский признал, что в России активно ведется работа над законами, призванными защитить население от различных мошеннических схем, включая телефонное мошенничество. Однако, подчеркнул депутат Госдумы, с решениями в этой сфере они с коллегами «немного опоздали».
«Впереди нас ждут ещё бóльшие вызовы. Технологии дипфейков вот-вот ворвутся в нашу жизнь и станут в том числе инструментом злоумышленников. Считаю необходимым действовать на опережение и уже сейчас разрабатывать инструменты защиты голоса человека, его изображения», — предупредил Боярский.
Сейчас в российском законодательстве не прописаны конкретные ограничения, позволяющие привлечь к уголовной ответственности за использование дипфейков для совершения преступлений, заявил «Телеспутнику» юрист Санкт-Петербургского адвокатского бюро «Гуцу, Жуковский и партнеры» Павел Сёмин.
«Это в большей степени технический вопрос — выявление и фиксирование факта использования дипфейка для совершения преступления. Регулирование таких вопросов редко осуществляется на законодательном уровне, как правило, это решается путем обобщения практики», — объяснил он.
В частности, привел пример юрист, когда дипфейк использовался для дискредитации гражданина, это можно квалифицировать как распространение недостоверной информации и требовать ее удаления в соответствии с Гражданским кодексом. Для этого сначала необходимо технически доказать сам факт создания дипфейка и установить его распространителя.
«Единственным слабо урегулированным моментом может рассматриваться сам факт использования изображения и голоса для создания дипфейка, безотносительно последующего использования в противоправных целях. Например, использование изображения и голоса политического деятеля для создания музыкального клипа», — пояснил Сёмин.
Ранее «Телеспутник» со ссылкой на исследования рынка обуви для активного отдыха от виртуального ассистента AutoGPT писал, что еще большую, чем дипфейки, угрозу могут представлять чат-боты на основе нейросетей. «Главной проблемой в применении чат-ботов можно назвать большой процент неверных ответов, которые могут выглядеть логичными. Проблемы с распознаванием ошибок ИИ, в свою очередь, могут вести к распространению дезинформации и фейков», — говорилось в материале издания.