Опасения по поводу развития искусственного интеллекта раздаются все чаще: безработица, снижение умственных способностей человека, дипфейки, манипуляции людьми и угроза ядерного апокалипсиса, вот лишь некоторые из угроз, которые связывают с ИИ. RTVI поговорил со специалистами в области ИИ и узнал, какие из этих страхов реальны, а какие нет.
Первые опасения по поводу разработок, основанных на технологиях искусственного интеллекта, стали высказываться еще в 1980-е годы. В наши дни, с развитием систем генеративного ИИ, способных производить изображения, текст и другие медиаданные с помощью подсказок человека, в адрес разработчиков технологий ИИ стало поступать еще больше предупреждений, требований и даже угроз.
И предупреждения эти, часто апокалиптического характера, исходят от известных людей — ученых, бизнесменов и политиков. Так, физик Стивен Хокинг предупреждал, что разработка полноценного искусственного разума может означать конец для всей человеческой расы. А миллиардер Илон Маск назвал ИИ «одной из главных опасностей для будущего цивилизации» . На днях он заявил, что запретит сотрудникам его компаний пользоваться устройствами Apple, если в них будут интегрированы системы ИИ от OpenAI.
В июне небольшая группа бывших и нынешних сотрудников OpenAI опубликовала письмо, в котором предупредила о последствиях, которые технология ИИ могут иметь для человечества.
«Эти риски варьируются от дальнейшего усиления существующего неравенства, до манипуляций и дезинформации, и до потери контроля за автономными системами ИИ, что потенциально может привести к вымиранию человечества», — говорится в письме.
Эксперты в области искусственного интеллекта и кибербезопасности рассказали RTVI, какие известные и новые риски развития ИИ они видят в будущем, а чего бояться не стоит.
Ложные страхи
Дмитрий Николаев, завотделом «Зрительные системы» ФИЦ ИУ РАН, технический директор «Смарт Энджинс Сервис», недоумевает по поводу того, о каких автономных системах ИИ идет речь в упомянутом письме.
«Эта формулировка относится не то к XXII, не то к XXIII веку, и мне непонятно, почему мы сейчас об этом говорим. Автономные системы ИИ, над которыми можно потерять контроль, пока не существуют в природе. Если такие системы, способные самостоятельно влиять на физический мир или хотя бы на социальный мир людей существенным образом, окажутся бесконтрольными, то, конечно, у нас будут серьезные неприятности. Но вряд ли мы увидим такие системы в обозримое время, — пояснил Николаев — Возьмем для примера системы беспилотного вождения автотранспорта. Обратите внимание, насколько долго они «доводятся до ума». Когда нам «Яндекс» обещал, что все мы будем кататься на беспилотном такси? Все еще не катаемся. И это замечательно. Плохо для «Яндекса» и для нас, но для существования человечества это очень хороший признак».
Рост безработицы
Николаев не видит опасности потери рабочих мест из-за новых систем ИИ. Нет ничего страшного, по его словам, если исчезновение каких-то профессий происходит на масштабе 50 лет — главное, не готовить слишком много специалистов, если число вакансий уменьшается. «Безработицы не будет. Где-то исчезнут рабочие места, но появятся новые. Любая глобальная технология требует громадного и постоянного труда, ее нельзя один раз сделать и отдыхать. Если совсем грубо: было десять человек с лопатами, а на замену пришли экскаваторщик, инженер, пять слесарей и трое металлургов. Возникают новые профессии для ИИ и вокруг ИИ. Тут главное не делать резких движений, процесс не должен быть быстрым. Заодно и технологии «дозреют», — считает Николаев.
“Пока что ИИ не лишает никого работы, а только создает. В распознавании, в области, в которой я лучше всего разбираюсь, наблюдаются довольно неожиданные вещи. Вместо ИИ во многих сервисах распознавания документов работают люди, труд которых дешев. Вот такой искусственный интеллект, — пояснил эксперт.
— Сложные случаи, с которыми ИИ не справляется, программа отправляет «кожаным мешкам», которые доделывают работу.
И эти операторы зачастую находятся в очень интересных странах. Ведь самые лучшие рынки труда находятся в странах, в прошлом развитых, но в которые пришла разруха. Соответственно, на Украине сейчас соотношение стоимости и квалификации разметки данных наилучшее. И изображения наших паспортов и договоров между компаниями путешествуют по всему миру. Проблема ли это избытка искусственного интеллекта? Лично мне кажется, что, скорее, недостатка естественного».
По мнению заместителя директора Института Искусственного интеллекта МГУ Андрея Грунина, современные опасения следует разделить на психологические фобии и реальные последствия применения ИИ. «Из фобий это например создание антропоморфного искусственного интеллекта, который полностью повторяет человека, только сильнее его. Это скорее невозможно, просто ввиду разных принципов лежащих в основе искусственного и естественного интеллекта. Вторая фобия — что в экономике начнется коллапс, и все потеряют рабочие места, — уверен Грунин. — На самом деле, в экономике и истории инноваций этот вопрос хорошо изучен на разных технологических волнах. И показано, что каждая новая технология, технологическая парадигма, наоборот рождает новые рабочие места, хотя и происходит сильное перераспределение и изменение структуры рынка труда».
По мнению Грунина, ИИ — это продолжение развития все более и более глубокой автоматизации процессов, которая в первую очередь затронула IT-сферу и вообще работу с информацией, и с неким временным лагом сферы, где человек задействован своими физическими способностями. Хороший пример, показывающий, что это снижает риски, автоматизация управлением самолетами, которая была реализована еще полвека назад на предыдущем технологическом витке, и статистика показала, что автопилот снижает аварийность полетов.
Дипфейки
По мнению Николаева, не стоит переоценивать опасность распространения дипфейков в будущем. «Дипфейки будут раздражающим фактором, и раздражение будет расти, это очевидно. Но «работает» или «не работает» фейк, связано с тем, какие доводы принимает, например, суд, и не окажется ли, что в суде появятся поддельные доказательства? Человечество как-то с этим разбиралось и меняло свое отношение к тому, что принимается в суде, а что — не принимается. Если будет известно, что что-либо легко подделывается, то оно перестанет приниматься как доказательство, — считает специалист.
— А вот повсеместное внедрение биометрической идентификации на этом фоне мне кажется большой ошибкой. Скомпрометированное удостоверение можно перевыпустить, а как сменить лицо, если его начнут использовать мошенники — мне не очень понятно.
Как и в случае с «Макдональдсом», реальность через некоторое время даст сдачи, и от некоторых красивых идей придется отказаться».
Что касается дипфейков, по мнению Андрея Грунина, опасность представляют даже не частные случаи их применения для обмана людей, а новая реальность, в которой дипфейки будут существовать повсеместно. «История с мошенниками, и обманутыми бабушками — то частные примеры, и есть практики борьбы с этим. Крупные опасности возникают, когда все это масштабируется. И на самом деле мы будем жить в мире не просто постправды, который формировался предыдущим поколением ИИ с рекомендательными алгоритмами You-Tube и тому подобным, — считает эксперт.
— Мы будем жить в мире постреальном, когда нас вообще будут окружать дипфейки разного формата —и текстового, и видео, и графического, и аудио, и это новая реальность, в которой нам придется жить и ее обустраивать.
Обманутая бабушка — это частная инициатива конкретного мошенника или небольшой организации. А когда дипфейки и манипулятивные инструменты ИИ создают крупные технологические гиганты, это становится новой реальностью, с которой надо жить. В этом главная проблема и угроза».
Бизнес-консультант по безопасности компании Positive Technologies Алексей Лукацкий не склонен делить угрозы ИИ на реальные или нереальные. «Технологии развиваются настолько быстро, что то, что раньше казалось нереальным, завтра становится вполне обыденной историей. И как раз применение ИИ это очень ярко иллюстрирует — то, что раньше было недоступным для большинства людей, сегодня стало реальностью, любой может написать музыку, любой может нарисовать картинку, распознать текст, перевести его на любой язык, и это не представляет большого труда, — считает эксперт. — Как человек, который занимается безопасностью, я понимаю, что джинна уже выпустили из бутылки. И полностью загнать его в некие рамки невозможно. Это примерно как с развитием ядерных технологий, которые создавали для вполне конкретных целей, потом стали применять для совершенно других».
Лукацкий считает появление дипфейков существенной угрозой, проявление которой наблюдается уже сейчас. «Существенная угроза это дипфейки, и эта угроза будет только расти, причем расти очень быстро. 2024 год я бы назвал как раз годом дипфейков. И 2025 они выйдут на определенное плато, когда дипфейк смогут создавать абсолютно все без исключения, причем очень сложные и многомодальные», — считает Лукацкий.
Общество Маугли
По мнению Дмитрия Николаева, есть существенный риск, который реализуется по мере внедрения технологий искусственного интеллекта — это изменения в наборе базовых умений очередного поколения людей.
«Сейчас синдром дефицита внимания и гиперактивности встречается чаще, а способность к запоминанию длинных текстов внезапно упала, поскольку дети перестали читать книги. Вопрос: верно ли представляли эксперты заранее, что медийно и социально заполненный интернет даст очередному поколению? — задается вопросом Николаев. — С развитием диалоговых интерфейсов, к которым относится GhatGPT, необходимость самостоятельного анализа больших объемов информации исчезнет. Соответственно, дети, подростки и студенты перестанут этот навык тренировать естественным образом. Кроме того, паттерны общения с ИИ будут переноситься на межчеловеческое общение. И вырастет очередное поколение, про которое мы сейчас ничего не знаем, но это будет поколение, которое, возможно, окажется негодным для решения каких то привычных задач, хотя и будет мастерски обращаться с новыми технологиями. То есть нельзя исключать, что какие-то профессии исчезнут не потому, что всех вытеснил ИИ, а потому, что людям неожиданно станет гораздо тяжелее учиться этим профессиям. Человечество стало слишком быстро менять собственное окружение. А у нас нет зрелых теорий о том, как будут выглядеть «новые Маугли», которые будут воспитываться в другой среде».
По словам Николаева, подобные опасения он все чаще слышит в среде профессуры, среди профессиональных преподавателей, ведь уже сегодня есть дети, которые на оконном стекле пытаются двумя пальцами «раздвинуть картинку».
Манипуляции людьми
К серьезным рискам, по словам Грунина, относится перспектива манипуляций людьми, которые с помощью ИИ могут быть выведены на другой уровень. «ИИ обладает низкой адаптивностью и у него отсутствует целеполагание, а также всегда его можно выключить из розетки. Поэтому он с человеком конкурировать не способен по своей природе. Однако у ИИ, как у любой вычислительной системы, работающей с большими объемами данных, есть одно существенное преимущество — они одновременно могут обрабатывать и помнить гораздо больший объем информации и делать из него какие-то выводы. И здесь лежат возможные риски и угрозы, и мы даже не можем предположить всех этих рисков и угроз, — считает Грунин.
— Например, ИИ, оперирующий большим количеством данных и нашими цифровыми следами, в том числе персональными данными, лучше, чем человек, и даже, возможно, чем мы сами, будет понимать нас — чего мы хотим, как мы живем, как стандартно реагируем на что-то. То есть, с точки зрения такого направления психологии, как бихевиоризм, человек становится полностью прозрачным, и потенциально, становится объектом для манипуляций.
ИИ становится мощным инструментом манипуляций, учитывая, что он интегрируется с цифровыми платформами, СМИ и так далее. Зная бихевиористическую модель человека, ты можешь «взломать» психику человека — заниматься мошенничеством, продавать продукты или навязывать какие-то идеи». Но главное что это работает не только для отдельных людей, но и для манипуляции целиком обществом.
К аналогичной угрозе Алексей Лукацкий относит создание цифровых двойников людей, которые позволяют от имени человека вести его виртуальную жизнь и тем самым вводить в заблуждение окружающих. «Как обратная сторона этой истории, это создание цифрового профиля человека, чтобы его атаковать по различным каналам, как виртуальным, так и физическим. Чем больше информации мы скармливаем искусственному интеллекту, тем больший портрет нас можно составить и манипулировать нами, и с целью дезинформации, и с целью введения в заблуждение и так далее. Это тоже одна из серьезнейших угроз и в этом году, и в следующем», — считает Лукацкий.
Во всем виноват ИИ
Еще одну опасность в будущем Дмитрий Николаев видит в риске переноса ответственности на ИИ: «Ни я, ни вы практически нигде с «опасными» системами искусственного интеллекта пока не пересекаемся. Но уже сейчас, не хочу называть конкретный банк, у меня иногда блокируются транзакции. Спрашиваю — какого… то есть, какова причина? Мне отвечают — ну, там у нас программа считает, что эта транзакция была подозрительной.
ИИ это не технология, не изделие, это область науки. Я считаю главной угрозой магическое отношение к искусственному интеллекту, потому что есть ненулевая вероятность, что какой-нибудь чиновник или работник действительно куда-нибудь воткнет неведомо что просто «потому, что ИИ».
Человек возьмет конкретное решение, относящееся к области искусственного интеллекта, но низкой степени готовности, и поставит его в эксплуатацию, а потом еще, не дай Бог, масштабирует. Как например, если бы уже сейчас запустили текущие автопилоты на дороги общего пользования. Совсем недавно прошла очередная примечательная новость. «Макдоналдс» отказывается от использования ИИ для формирования заказов из-за частых, неприятных и необъяснимых ошибок. Систему ИИ разработала IBM, не какой-нибудь гаражный стартап. Излишняя и неразборчивая восторженность по отношению к новым технологиям больно ударила сначала по пользователям, а следом — по бизнесу. Внедряться должны не новые или старые, а качественные и экономически оправданные технологии. Нужны испытания, исследования, все эти скучные материи. Но гораздо интереснее и приятнее кричать «ИИ прекрасно» либо же «ИИ ужасно», безусловно».
Угроза цивилизации
Лукацкий считает еще одной важной угрозой способность систем ИИ выполнять работу хакеров по взлому объектов критической инфраструктуры, таких, например, как атомные станции.
«Более приземленная история — это написание вирусов, поиск уязвимостей с помощью ИИ. Это то, что выведет гонку кибервооружений на совершенно другой уровень, потому что это будет делать уже не человек, а чисто в автоматическом режиме. Поиск слабых мест и их использования для проникновения в критические инфраструктуры и достаточно чувствительные области, которые раньше считались изолированными от внешнего мира», — считает эксперт.
Его опасения вызывает перспектива внедрения систем ИИ в управление вооружением и ядерными арсеналами. «Сегодня уже идут разговоры, — но от разговоров до действия на самом деле не так уж и долго пройдет времени — об управлении с помощью искусственного интеллекта ядерным вооружением, чтобы исключить человеческий фактор при принятии решения о нанесении ядерного удара. По крайней мере, такие разговоры шли на стороне американцев. Кроме того, ведутся исследования по оснащению искусственным интеллектом обычных вооружений — ракеты, торпеды, беспилотные танки и так далее, то, что сейчас эпизодически используют в дронах, — говорит Лукацкий. — Конечно, я смотрю на это с опасением, потому что ИИ все-таки программируется людьми, людям свойственно ошибаться, и достаточно совершить небольшую ошибку в коде либо в модели, либо в обучающих данных, и ИИ начнет принимать некорректные решения. И мы как раз подойдем к сценарию фильма «Терминатор», который ровно с этого и начался».