В Госдуме начали разрабатывать концепцию законопроекта о маркировке контента, созданного при помощи нейросетей, сообщил РИА Новости член комитета Думы по информполитике Антон Немкин. По его словам, сейчас изучается законодательный опыт других стран, проводятся консультации с экспертами и подбираются формулировки базовых дефиниций.
Депутат считает, что в интернете появляется все больше контента, созданного ботами и алгоритмами. Причем отличить его от «реальных» материалов, по мнению Немкина, становится «действительно очень сложно».
«А если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», — убежден парламентарий.
По словам Немкина, задача государства — помочь пользователям, которых «очень легко обмануть и завлечь куда-то», отличить реальный контент от нереального. Маркировка контента, созданного нейросетями, должна осуществляться с помощью графических или водяных знаков, подчеркивает парламентарий.
«Главное, чтобы такая маркировка была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать», — добавил он.
По мнению депутата, на начальном этапе российские ИИ-сервисы должны автоматически маркировать все сгенерированные тексты, поскольку пока не определена экспертиза, которая поможет выявлять степень участия машин и человека в работе над одним и тем же материалом.
В то же время Немкин считает, что полномочиями маркировки такого контента необходимо наделить Роскомнадзор, который будет проводить экспертизу сгенерированных текстов в том случае, если их создатели стараются избежать маркировки.
«После выявления такой контент должен будет принудительно маркироваться на площадках его распространения или же блокироваться в случае, если он распространяется в противоправных целях», — заключил он.
В конце марта 2023 года основатель SpaceX Илон Маск, сооснователь Apple Стив Возняк и еще более тысячи экспертов призвали приостановить обучение более мощных систем искусственного интеллекта, чем GPT-4. Они заявили, что современные ИИ «становятся конкурентноспособны по сравнению с человеком в решении общих задач», поэтому стоит разрабатывать и управлять ими с осторожностью.
В июле того же года глава британской разведки MI-6 Ричард Мур выразил мнение, что ИИ не сможет полностью заменить человека. По его словам, нейросеть сделает информацию более доступной, при этом по мере совершенствования ИИ более ценными станут данные, находящиеся вне зоны досягаемости нейросетей.