Искусственный интеллект в России незаметно прошёл путь от технологической экзотики до повседневной инфраструктуры, и последствия этого перехода оказались куда серьёзнее, чем ожидали многие. Иван Родионов, управляющий партнер консалтингового агентства Rodionoff Group, рассказывает RTVI, как ИИ меняет рынок труда, усиливает возможности отслеживания жизни людей со стороны государства, вооружает мошенников, а также что с этим собирается делать власть.
Всего пару лет назад искусственный интеллект воспринимался в России как технологическая экзотика — что-то из презентаций «Сколково» и новостей про Кремниевую долину. Пользовались ИИ разве что гики, рисовавшие картинки «реалистичных» людей с шестью пальцами.
Сегодня ИИ незаметно и очень крепко встроился в повседневную реальность каждого из нас. Чат-боты в банках и на Госуслугах, налоги, рассчитанные алгоритмами ФНС, уличные камеры с распознаванием лиц, бесчисленное количество сгенерированных фейков в соцсетях. Даже музыкальные топ-чарты теперь возглавляют ИИ-артисты.
ИИ постепенно стал инфраструктурой, его влияние оказалось глубже чем могли подумать эксперты. Он изменил не только отдельные отрасли, но и все мироустройство, нашу повседневную жизнь. Пока непонятно, это только начало или уже конец.
Профессии 404: как ИИ забирает рабочие места
По прогнозам экспертов, к 2030 году искусственный интеллект охватит 9% мирового рынка труда и вытеснит с него 300 млн сотрудников — от бухгалтеров и юристов до кассиров. Уже сегодня простые алгоритмические операции, которыми занимаются офисные работники, нейросети могут выполнять быстрее и дешевле. Они делают это без выходных, больничных и отпусков. Американские корпорации активно сокращают персонал — зачем обучать сотню новых людей, если можно запустить ИИ-алгоритм, который сделает их работу.
В России пока такой «эйфории» нет. Безработица остается на рекордно низких показателях. Исследование 142 профессий показало, что лишь 22% рабочих мест в нашей стране находятся в группе высокого риска автоматизации с помощью ИИ, тогда как в США — 42%.
Секрет такой стабильности кроется в большом количестве ручного труда и его низкой стоимости, что делает внедрение высоких технологий в ряде отраслей нерентабельным. Однако поводов для тревоги достаточно. МВФ прогнозирует, что до 60% рабочих мест в развитых странах могут оказаться под угрозой перемен под влиянием ИИ-технологий.
В России уже появляются первые признаки цифровой трансформации рынка труда.
С одной стороны — кластер новых профессий (дата-сайентисты, чат-бот-менеджеры, роботизация производств), с другой — угроза стандартным офисным кадрам и гуманитарным профессиям. Пока кризиса на горизонте нет, но как только стоимость внедрения ИИ в России снизится еще в 2-3 раза, ситуация может кардинально измениться.
Сегодня же риск потерять работу из-за внедрения ИИ наибольший у представителей высокооплачиваемых профессий — юристов, бухгалтеров, финансовых аналитиков. Исследования уже подтвердили: каждый пятый российский офисный работник выполняет задачи, которые ИИ сейчас решает даже лучше человека.
Большой брат 2.0: ИИ и безопасность
Госорганы зачастую первыми внедряют все прелести инноваций. Например, не так давно ФНС перешла к тотальной цифровой прозрачности. Сейчас в основе налогового контроля лежит Big Data‑анализ в реальном времени. ИИ-алгоритмы анализируют счета и кассовые чеки, выискивая признаки дробления бизнеса и «отмыва». По свидетельству чиновников, новые системы помогают выявлять сложнейшие схемы незаконной налоговой «оптимизации» и сокращают число налоговых преступлений, повышая собираемость налогов. Иными словами, невидимая рука ИИ уже пытается ловить каждого, кто не дописывает нули в декларации. Для добросовестного предприятия это означает меньше проверок (и меньше суеты), а для нарушителей — конец человеческого фактора.
Полиция использует свои «цифровые радары». В Москве действует сеть «Безопасный город» — несколько сотен тысяч «умных» камер. МВД учит нейросети распознавать преступников по голосу, радужной оболочке глаза или даже татуировкам на теле. В конце 2024 года МВД заявляло, что нейросетевые модули помогли раскрыть ряд резонансных дел, задержав 96 организаторов кибермошенничества с оборотом 3,5 млрд рублей.
Кроме того, теперь системы безопасности не просто записывают видео и звук, они еще и «думают». Внедряются «умные» системы, которые не только предотвращают кражи в магазинах и отслеживают технику безопасности на производствах, но даже следят за количеством продукции на складе или агрессивными действиями отдельных лиц. Такие камеры могут оснащаться функцией распознавания лиц и предупреждать охрану при подозрительных действиях (или, наоборот, пропускать своих).
Страна постепенно превращается в гигантский набор алгоритмов. Не покидает ощущение, что ИИ уже создал личное дело на каждого из нас.
Как ИИ обманывает россиян и что с этим делать
Искусственный интеллект может быть как благом, так и мощнейшим инструментом мошенников. Киберэксперты отмечают, что текст 80% фишинговых писем в 2025 году составляли нейросети. Это значит, что фальшивые письма «от банка» или «от налоговой» выглядят всё правдоподобнее и очень дешево производятся — не нужно нанимать специальных лингвистов и хакеров, теперь бот справится одним кликом.
Не реже мелькает и другая схема — клонирование голосов близких или начальства. По оценкам специалистов, каждый десятый взрослый уже сталкивался с обманом, когда нейросеть подделывала чей-то голос. Телефонные мошенники могут взять аудиозапись вашего ребёнка или родителя, заставить ИИ отрепетировать интонации, а затем сообщают вам, что «ваш ребёнок попал в беду и ему нужны деньги». Иногда даже добавляют искусственные слёзы и дрожащие интонации — и многие, к сожалению, становятся жертвами такого обмана.
Искусственный интеллект упрощает и другие старые схемы. Злоумышленники быстро генерируют поддельные сайты и вирусы. Достаточно скормить нейросети пару скриншотов, и она выдаст фишинговую копию официального сайта банка или магазина. Раньше на это уходили недели, теперь бот напишет код за секунды.
ИИ учится анализировать существующие вирусы и создавать новые, сложные для распознавания антивирусом. В результате компьютерные мошенники стали разрабатывать атаки не за дни, а за часы.
Что делать? Ответ комплексный — как и на любой войне: цифровая гигиена, законы и техника. Кроме частной бдительности, о которой сегодня предупреждают все, нужны и конкретные государственные меры. В Госдуме уже предлагают приравнять подделку голоса ИИ к тяжкому преступлению и ввести штрафы до 1,5 млн или срок до 7 лет. Это можно приветствовать — перспектива уголовной статьи отпугнет многих.
Отдельно стоит отметить формирующийся регуляторный контур. Минцифры прорабатывает законопроект, направленный на снижение рисков, связанных с использованием искусственного интеллекта. Речь идет о введении обязательной маркировки синтетического контента, закреплении ответственности за создание и распространение дипфейков, а также о требованиях к прозрачности алгоритмов в социально значимых сервисах. В случае одобрения, закон вступит в силу 1 сентября 2027 года.
По сути, государство пытается выстроить базовую архитектуру доверия в цифровой среде, чтобы пользователь понимал, где перед ним человек, а где — машина, и чтобы злоупотребление ИИ не оставалось в «серой зоне».
Этот подход укладывается в более широкую стратегию управляемого внедрения технологий в контуре национальной безопасности и защиты граждан.
Что будет дальше?
Можно с уверенностью предположить, что к 2030 году искусственный интеллект в России окончательно перестанет быть «новой технологией» и станет частью базовой инфраструктуры, такой же незаметной и естественной, как интернет или электричество. Он окончательно встроится в контур государственного управления, медицины, образования, финансов и промышленности. Государство будет опираться на предиктивную аналитику при принятии решений, бизнес — на автоматизированные цепочки создания стоимости, а граждане — на персонализированные цифровые сервисы.
Рынок труда трансформируется — часть рутинных функций исчезнет, но взамен появится спрос на специалистов, способных управлять ИИ-системами, интерпретировать данные и работать на стыке технологий и предметной экспертизы.
Одновременно усилится и обратная сторона — рост требований к цифровой зрелости общества и качеству регулирования. Дипфейки, алгоритмическая дискриминация, кибермошенничество и утечки данных станут не исключением, а системным вызовом.
В ответ государство будет выстраивать более жесткий регуляторный каркас: от маркировки контента, созданного с помощью искусственного интеллекта, до уголовной ответственности за злоупотребление технологиями. Пойдут инвестиции в развитие собственных суверенных ИИ-решений как элемента технологического суверенитета.
В итоге к 2030 году Россия окажется в новой конфигурации. С одной стороны — более эффективная, цифровая и управляемая экономика, с другой — общество, где уровень доверия напрямую зависит от способности отличить реальность от алгоритма.
Мнение автора может не совпадать с мнением редакции


