Современные технологии нейросетей позволяют гораздо быстрее и с меньшими затратами создать убедительный дипфейк, сообщил Life.ru эксперт Регионального общественного центра интернет-технологий (РОЦИТ) Илья Гогуа. Этим активно пользуются мошенники, чтобы втягивать россиянок в финансовые схемы.
По словам эксперта, для создания убедительного цифрового образа достаточно сделать один текстовый запрос или загрузить фотографию, чтобы получить реалистичную картинку. Причем осуществить это может любой человек, если воспользуется одним из десятков доступных сервисов.
Причем большинство людей, которые не работают с нейросетями, вероятно, не смогут отличить реальное фото или видео от сгенерированного. Так, проведенный в конце 2025 года опрос НАФИ показал, что каждый пятый житель России регулярно сталкивается с нейросетевым контентом. Однако почти половина респондентов (43%) ответили, что не могут распознать дипфейк.
Профессионалы же сразу обратят внимание на детали — неестественную мимику, «пластиковую» кожу и несоответствие эмоций выражению глаз.
«Такой мощный инструмент не мог остаться без внимания злоумышленников. Они активно используют ИИ для обмана», — подчеркнул Гогу
Мошенники, по словам эксперта, связываются с женщинами, скрываясь за образом «идеального мужчины», который создают при помощи нейросети. Зачастую жертвами становятся люди, которые готовы поверить в красивую историю, и пренебрегают критическим мышлением.
Гогуа напомнил, что еще в 1990-х и 2000-х годах женщины были готовы долгое время переписываться с заключенными и ждать их, не зная при этом, как они выглядят. Визуальный же контент, который создают злоумышленники, только повышает убедительность, подчеркнул он.
При этом жертвой аферистов могут стать успешные и уверенные в себе люди, привыкшие принимать решения и контролировать ситуацию. Эксперт обращает внимание, что они часто не допускают и мысли, что их могут обмануть, а мошенники этим пользуются.
«Можно сколько угодно запрещать технологии, но мошенники всегда адаптируются. Это вечная гонка — как между антивирусами и вирусами: появляется защита, а затем способ ее обойти», — заключил Гогуа.
В июне 2025 года аналитики компании BI.Zone AntiFraud сообщили, что в России в 2,3 раза выросло число случаев мошенничества с использованием ИИ. При этом почти 80% жертв таких схем попытались перевести мошенникам средства.
В феврале того же года председатель комитета Госдумы по информации и связи Сергей Боярский заявил, что властям стоит активнее работать над ограничительными мерами, которые защитят граждан от мошенников, которые используют дипфейки.
По его словам, в России активно ведется работа над законами в этой сфере, однако признал, что они с коллегами «немного опоздали».