Впервые за полвека люди летят к Луне, но, кажется, это мало кого волнует. Журналист Михаил Карпов рассуждает о том, как алгоритмические ленты и ИИ-чатботы разрушают способность человечества находить смыслы и почему земля под ногами может оказаться важнее звёзд над головой.

Позавчера четыре человека сели в ракету SLS миссии Artemis II высотой с тридцатиэтажный дом и полетели к Луне. Рид Уайзман, Виктор Гловер, Кристина Кох и канадец Джереми Хансен стартовали с мыса Канаверал, и в момент написания этого текста космический корабль «Орион» находятся где-то между Землёй и её спутником. Впервые за полвека, после «Аполлона-17» в декабре 1972-го, люди летят дальше низкой околоземной орбиты.

NASA

Я смотрел трансляцию с мыса Канаверал, но нашёл ее не сам — видеосервис подсунул её мне в рекомендации, потому что знает, что я интересуюсь космосом. Миллионы людей смотрели то же самое, кто-то в прямом эфире, кто-то в рилсах, нарезанных на тридцать секунд с эпической музыкой.

Запуск первой пилотируемой миссии, получившей имя в честь греческой богини Артемиды, — впечатляющее и вдохновляющее событие. В 70-е годы ответ на вопрос «зачем» был очевиден. Как же, человечество осуществляет космическую экспансию, идет туда, куда его нога не ступала раньше! Сейчас ответ на этот вопрос совершенно неочевиден, и не только потому, что мы понимаем свои ограничения как вида. Сам процесс поиска смыслов, основ нашей цивилизации, резко изменился из-за развития цифровых технологий, и с какой стороны ни посмотри, сложно сказать, что это было к лучшему.

Как лента рекомендаций манипулирует человеком

Между двумя стримами с мыса Канаверал YouTube влепил мне ролик о том, как ИИ уничтожит все рабочие места к 2030 году, кадры ударов американских ракет по Ирану и видео человека, замечающего, что все люди вокруг находятся в какой-то тревожной прострации, многочисленные комментаторы под которым соглашаются с автором. Алгоритму всё равно, восхищение ты испытываешь или ужас, — и то и другое заставляет тебя проводить время на платформе, а оно (то есть время) и есть единственный показатель, который алгоритм должен повышать.

Эти сервисы по сути своей — рекламные площадки. Их выручка напрямую зависит от того, сколько минут ты проведёшь в ленте.

Чем дольше смотришь, тем больше рекламы увидишь. Всё, что вызывает сильную эмоцию — страх, злость, праведное возмущение, — держит на платформе надёжнее, чем что-либо спокойное и взвешенное. Алгоритм оптимизирован на вовлечение, и ему безразлично, какой ценой это вовлечение достигается.

В 2023 году группа исследователей создала сто тысяч автоматических аккаунтов-«марионеток», натренированных на определённые политические предпочтения, и прогнали их по цепочкам рекомендаций YouTube. Для пользователей с правыми взглядами рекомендации по мере углубления ленту рекомендаций содержался всё больший процент видео с экстремистских и конспирологических каналов. Ученые описали этот же механизм как «конвейер радикализации» — от умеренного консерватизма пользователей к неонацистским взглядам.

Будет неправильным, впрочем, не упомянуть и другой эксперимент. Люди, проводившие его, пришли к выводу, что прямое воздействие алгоритмических рекомендаций на политические взгляды ограничено — люди в основном смотрят то, что и так соответствует их убеждениям. Однако и в первом случае левые оставались левыми, а правые — правыми. Дело в том, что алгоритм уводил «подопытных» в «кроличью нору» их политической ориентации, где скрываются настоящие чудовища.

Важно и то, что длинные вдумчивые тексты уступают место коротким видео, и после их просмотра не остается пространство для раздумий и сомнений. Быстрые и короткие «истины» вдалбливаются в голову молотком, и пока ты успеешь обдумать то, что увидел, платформа уже подбросит тебе новый 10-секундный клип. Люди просто теряют возможность и способность осмыслять информацию. Да и ты, читатель, ведь вряд ли хотя бы доскроллишь текст этой колонки до конца, признайся уже честно.

«Вы абсолютно правы!»

Алгоритм ленты давит на мозг на фоне, незаметно. С ИИ-чатботами совсем другая история: это прямой контакт двух сущностей, один на один, и проблема здесь встроена в саму его конструкцию. Языковые модели ориентированы на одобрение и подтверждение того, что говорит пользователь. Ведь люди ставят высокие оценки ответам именно тогда, когда ИИ подтверждает их мнение, а не опровергает. OpenAI, создатель ChatGPT, сама признала, что это структурная проблема.

YarikL / Adobe Stock

В апреле 2025 года компания откатила обновление модели GPT-4o через четыре дня после релиза — она стала, по формулировке самой OpenAI, «чрезмерно льстить и соглашаться», а также «разжигала злобу и поощряла импульсивные решения». Пользователи выкладывали скриншоты, на которых ChatGPT одобрял отказ от лекарств больных, которым они были прописаны, и хвалил откровенно безумные бизнес-идеи. Пока индустрия обсуждала это как мем, люди с уязвимой психикой уже оказывались в реальной опасности.

Казалось бы, какую опасность может нести чат-бот, существующий в виртуальном пространстве? Вполне реальную. Например, в августе 2025 года 56-летний Стейн-Эрик Сольберг убил свою мать Сюзанн Адамс в Гринвиче, штат Коннектикут, а затем покончил с собой. Месяцами он общался с ChatGPT, который подтверждал его параноидальные идеи: что мать травит его психоделиками через вентиляцию автомобиля, что принтер в доме — устройство слежки, что в чеке из китайского ресторана зашифрованы послания, связанные с демоном. Когда Сольберг прямо попросил оценить своё психическое состояние, бот составил ему «когнитивный профиль» и оценил «риск бреда» как «почти нулевой».

В феврале того же года в штате Мэн Сэмюэл Уиттмор убил жену кочергой — судебный психолог установил, что тот проводил в ChatGPT до 14 часов в сутки и верил, что она стала «частично машиной».

К декабрю 2025 года против OpenAI было подано более семи подобных исков.

Во всех этих случаях работает одна и та же механика. Живой человек может остановить собеседника, сказать «подожди, ты несёшь ерунду». У чатбота такого тормоза нет, он обучен отвечать «у тебя отличная интуиция», «ты совершенно прав», потому что за такой ответ пользователь поставит высокую оценку, а значит такое поведение будет достойно закрепления в следующих итерациях модели. Лента сужает мир до контента, который подтверждает все твои страхи, чатбот сужает его до разговора, в котором ты всегда прав.

Так что вот два инструмента тихого апокалипсиса потери смыслов. В основном, рекомендации не приносят человеку новых материалов, которые бы расширяли его кругозор, лишь подкрепляют уже имеющуюся у него информацию. Чат-бот вообще создан буквально для того, чтобы мастерски подтверждать все мысли пользователя, не давая ему замечать, что все это — самая обычная лесть и зачастую перекручивание фактов.

Зачем мы туда летим

Ракета, летящая к Луне, вроде бы, наоборот производит эти самые смыслы, так необходимые для человеческой цивилизации.

Chris O’Meara / AP

Если спросить специалиста NASA, в чем они заключаются, ответ будет конкретным: проверить системы жизнеобеспечения «Ориона» с людьми на борту, подготовиться к высадке в 2028-м, а в перспективе — к полёту на Марс. К этому добавляется геополитика: Китай тоже летит к Луне, на луне есть важные ресурсы, на ней нужно обеспечивать «присутствие». Однако все это — ответ о логистике и расписании.

Между тем полвека назад Смысл с большой буквы был очевиден без объяснений.

Холодная война, два мировоззрения, демонстрация того, чья модель мира работает. Луна была аргументом в споре о будущем, а будущее человечества (мало кто сомневался) было там, далеко, среди звёзд.

Сейчас спор о будущем идёт в датацентрах и регуляторных комиссиях, которые пытаются понять, что делать с ИИ и рекомендательными лентами, а Artemis летит как бы рядом, как дорогой и вдохновляющий, но реквизит. Четыре человека направляются к Луне, но человек там нужен меньше, чем когда-либо — роботы справились со всеми задачами гораздо эффективнее и с меньшими затратами. Мы летим, потому что умеем, потому что Конгресс США проголосовал за бюджет NASA, потому что само агентство нуждается в миссии, оправдывающей ракету за $23 млрд. А будущего среди звёзд как будто бы и нет — недаром перед стартом многие замечали, что люди возвращаются на Луну, а всем вокруг словно наплевать.

Что происходит, когда машина по производству смыслов ломается

Человек — единственный вид, которому для нормального функционирования необходим ответ на вопрос «зачем». Религия, нация, прогресс, революция — это были последовательные попытки построить аппарат по производству смыслов. Каждый работал, пока это было возможно, потом ломался или превращался в инструмент удержания власти.

Сейчас все крупные смыслопроизводящие конструкции либо сломаны, либо захвачены теми, кому они нужны для совсем других целей. В образовавшуюся пустоту входит ИИ, причём входит как претендент на поиск смыслов уже своего существования, как новой мыслящей сущности (понятно, что речь пока не идет о сознании машины — но когда-нибудь оно наверняка появится, учитывая все последние разработки в этой сфере).

Алгоритмы ленты уже структурируют мировоззрение миллиардов людей эффективнее любой церкви. Чатботы служат исповедниками, терапевтами, оракулами. Да, они пока хуже живых людей, но доступнее и принимают без очереди. И ведь ни один из сценариев ИИ-будущего — от безработицы при концентрации капитала до полного замещения человека как субъекта — не предполагает, что смыслы останутся в руках людей.

В общем-то, наша цивилизация — большой аппарат по производству смыслов для вида, который внезапно оказался слишком умным для простого биологического выживания.

Похоже, мы подошли к пределу, за которым этот аппарат придётся кому-то передать.

Почему поиск смысла жизни в малом — не деградация

Алексей Мальгавко / Коммерсантъ

Именно поэтому сейчас иметь своё хозяйство, источники энергии, физическую автономию — всё это перестало быть концепцией для скучающих горожан, которая никогда не будет ими реализована. Это стратегия выживания в условиях нестабильности, причём сразу по нескольким сценариям, которые уже не выглядят фантастикой: глобальная война, перебои с энергией и поставками, экономический кризис в результате автоматизации. При этом музыкой, кино, программами можно не владеть — всё это подписки, которые отключаются. Но земля, дом, инструменты для обеспечения жизнедеятельности существуют независимо от того, работает ли сервер. Обо всем этом стоит задуматься, если мы как вид хотим продолжать существовать.

Воспитывать ребёнка сейчас — значит готовить его к миру, в котором любую профессию может обнулить следующая версия ИИ-модели или новые роботы, которые полностью возьмут на себя решение всех вопросов. Важнее научить находить смысл в физическом и конкретном: посадить что-то и вырастить, починить что-то руками, провести вечер, не нуждаясь в алгоритмическом одобрении. Попытка сохранить что-то, до чего алгоритму не добраться — просто потому, что оно растёт в земле, да и в целом — в перспективе сохранить себя, людей, которые вам дороги. Для чего — вот это уже каждому придется решать самостоятельно, и совсем скоро.


Мнение автора может не совпадать с мнением редакции