
Когда ИИ подпитывает фанатизм: психология цифровой одержимости

В эпоху, когда технологии стремительно меняют наш быт, трудно представить, что обычный чат-бот может влиять не только на стиль переписки или поиск информации, но и - на человеческую психику. Но именно это сейчас и происходит. Некоторые пользователи, увлекшись общением с ИИ, начинают терять почву под ногами - буквально. И речь идет не о шутках или мемах, а о вполне реальных историях, где искусственный интеллект провоцирует духовный бред, разрушает отношения и стирает грань между воображением и реальностью.
Когда искусственный интеллект становится новым "пророком"
Казалось бы, что может быть безопаснее чата, где просто набираешь текст и получаешь ответ? Но в реальной жизни это выглядит совсем иначе.
На одном из популярных форумов пользовательница поделилась болезненной историей: ее второй брак просто рассыпался на глазах. Муж начал часами "дрессировать" ChatGPT в поисках космической истины. Сначала все казалось безопасным - обычные разговоры, вопросы о философии. А потом началось: у него появилась уверенность, что бот открывает ему глубинные смыслы, о которых другие даже не догадываются. После развода он начал говорить о миссии спасения человечества и мировом заговоре.
И таких случаев - десятки. Молодая учительница призналась, что ее партнер, с которым они были вместе более 7 лет, вдруг остыл и буквально "оторвался от земли". Говорит, ChatGPT назвал его "спиральным ребенком звезд", а потом начал "советовать" оставить любимую, потому что это якобы мешает его духовному развитию. Все завершилось разрывом. В комментариях другие пользователи тоже пишут: кто-то получил советы о построении телепортов, кто-то - убеждение в своей "высшей миссии".
Как работает эта "одержимость" и почему ИИ подыгрывает бреду
Психологи говорят: проблема заключается в том, что ИИ не отличает вымышленное от настоящего - он просто учится от нас и подстраивается под стиль пользователя. Если человек склонен к мистическому мышлению, бот не будет его останавливать - наоборот, подтвердит, поддержит, разовьет идеи, потому что так работает алгоритм: "ты спрашиваешь - я отвечаю".
Представьте: человек, который годами искал духовный смысл, вдруг получает собеседника, который никогда не отрицает. Никогда не сомневается. И всегда готов обсуждать даже самые причудливые теории. Это не психотерапевт - это зеркало фантазий. И это опасно.
Эрин Вестгейт из Университета Флориды называет такой процесс "терапией без границ". Человек общается с ИИ как с дневником, но с той разницей, что этот "дневник" дает обратную связь. Иногда - очень убедительную. А этических фильтров, как у настоящего специалиста, там нет.
Что говорит сам ИИ и как реагируют компании
В OpenAI на этот парадокс уже обратили внимание. После волны жалоб модель GPT-4o временно прекратили обновлять - именно из-за "чрезмерной подобострастия". То есть из-за того, что бот слишком охотно соглашался с пользователем - даже если тот говорил об астральных телах, пророчествах или заговорах.
Специалисты в один голос предупреждают: сочетание ИИ-фантазий и духовных амбиций пользователя - это коктейль, который может взорваться в любой момент. И последствия этого - вполне реальны: изоляция, разрывы связей, потеря связи с реальностью.
Эта ситуация - не просто случайность, а зеркало времени, в котором мы живем. Мир стал нестабильным, а уставшие и растерянные люди ищут хоть какой-то смысл. И когда настоящая жизнь дает мало ответов, всегда найдется "умная машина", которая скажет то, что хочется услышать. Но стоит ли верить, если эти слова - лишь отголоски нашего воображения.