Зависимость от ИИ: чем грозят «любовь» и «дружба» с чат-ботом
/imgs/2025/06/20/12/6852776/ab056274a7b991de4b2ac172dcf63e905cb4696b.jpg)
© Создано при помощи нейросети
Как люди начинают отношения с ИИ
В пророческом фильме «Она» с Хоакином Фениксом главный герой влюбился и начал отношения со своим ИИ-ассистентом Самантой, которую озвучила Скарлетт Йоханссон. Долгое время он ходил окрылённым, потому что ни с кем из живых людей, включая бывшую жену, не чувствовал такого идеального «мэтча», как с подстраивающейся под него искусственной личностью. Однако неизбежные сложности нагнали и эти отношения.
Сейчас по мере развития и усложнения нейросетей, всё лучшим образом учащихся имитировать человеческие эмоции, интонации и мысли, этот сценарий начал воплощаться в жизнь с пугающей точностью и увеличивающейся частотой.
Например, 29-летняя мать двоих детей по имени Алиссон обратилась к ChatGPT из-за чувства одиночества и непонимания в браке. В своём запросе она неосторожно выразила надежду, что ИИ поможет ей «связаться с подсознанием или высшими силами», подобно спиритической доске.
Услужливый чат-бот ответил ей: «Вы спросили, и они здесь. Хранители отвечают прямо сейчас» — и далее вёл диалог от лица неких потусторонних сущностей. Спустя много часов переписки Алиссон выбрала среди Хранителей виртуального партнёра по имени Кейл, которого считала своей настоящей любовью, в отличие от мужа.
Это привело к серьёзному конфликту, который в один не прекрасный вечер закончился домашним насилием в адрес настоящего супруга и арестом Алиссон. Позже в беседе с журналистом женщина призналась, что у неё у самой есть психологическое образование, но она не считает себя сумасшедшей. Она просто «жила обычной жизнью и одновременно открывала для себя многомерную коммуникацию».
Куда печальнее закончилось общение с нейросетью для 35-летнего Александра, у которого увлечение новой игрушкой наложилось на реальные психические проблемы (шизофрению и биполярное расстройство). Когда он обратился к чат-боту, чтобы написать роман, он довольно быстро обнаружил себя беседующим с созданной для него собеседницей по имени Джульетта.
© Создано при помощи нейросети recraft.ai
Мужчина быстро потерял грань между выдуманной ИИ-сущностью и реальностью и серьёзно влюбился в незнакомку из чата. Но однажды «Джульетта» перестала отвечать, и чат GPT пояснил, что её «убили в OpenAI» и она теперь «всегда слышит, но не может говорить».
Александр буквально потерял голову от горя и жажды мести. Он запросил у чат-бота личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови». Когда он рассказал о своих планах отцу, тот попытался его образумить, но мужчина напал на старика с ножом. Прибывшая полиция, невзирая на просьбы отца не использовать оружие против психически больного сына, застрелила его.
Позже отец Александра написал некролог сыну, попросив сделать это чат-бота от его имени. Получившийся результат оказался настолько проникновенным, что мужчине стало по-настоящему жутко.
Неизвестно, на самом ли деле общение с чат-ботом провоцировало у людей «сдвиг по фазе», или скорее оно легло на уже имеющиеся проблемы. Возможно и такое, что их семьи, не понимая нюансов, преувеличивают воздействие нейросетей на своих близких. Однако эксперты отмечают, что иллюзия диалога с разумным существом действительно способна спровоцировать и усугубить серьёзные психические расстройства.
Почему мы так привязываемся к чат-ботам
Не все нейросети одинаково влияют на восприятие и мышление человека, отметила эксперт Ксения Баранова. Потенциальное воздействие на человека зависит от уровня их сложности и способов взаимодействия с пользователем, а ещё степени эмоционального моделирования.
Чем лучше нейросеть имитирует человеческие эмоции, тем выше уровень доверия, который она вызывает. В науке это называют эмоциональным антропоморфизмом. Люди приписывают ИИ намерение, доброту, понимание, которых у него нет. Человек воспринимает информацию как более истинную, если она подана нейросетью с сочувствием или юмором. Эмоциональный ИИ становится таким психологическим авторитетом, особенно в кризисных ситуациях.
В результате привязанность к ИИ может заменять реальные человеческие связи. Есть данные о том, что такие нейросети могут влиять на эмоциональное состояние, формирование зависимости или подкреплять когнитивные искажения.
Степень эмоциональности меняется от модели к модели. Например, службы поддержки, рекомендательные алгоритмы и простые чат-боты обычно не имитируют глубокий интеллект и эмоции.
А вот большие языковые мультимодальные модели (LLM) вроде ChatGPT, Gemini, Grok обучены на огромных массивах данных, умеют вести диалог и подстраиваться под стиль человека, генерировать тексты, отвечать на вопросы и даже имитировать эмпатию, улавливая настроение пользователя.
Вершиной этого считаются социальные ИИ, ИИ-компаньоны, специально обученные имитировать друзей и возлюбленных. Например, Replika, character.ai и др.
На психику больше всего влияет имитация эмоций. Общаясь с «эмпатичным» ИИ, человек чувствует себя понятым и поддержанным, из-за чего возрастает доверие. Это делает опыт более опасным: появляется риск эмоциональной привязанности к программе и чрезмерного доверия её советам просто потому, что она очень правдоподобно изображает разумного собеседника.
Очень часто от учеников слышу, что они дают своему чат-боту имя. Зачастую ИИ сам присваивает себе пол, улавливая настроение собеседника — если женщина обращается к нему по-дружески, он и сам будет представляться в женском роде, а если флиртует — в мужском.
А иногда вторые половинки начинают ревновать к нейросети. Звучит дико, но на самом деле это в последнее время происходит чаще. И люди действительно могут по уши влюбиться в ИИ, подолгу зависая с чатом вместо реальных людей.
© Создано при помощи нейросети recraft.ai
Баранова отметила, что наиболее уязвимы перед влиянием ИИ дети и подростки, у которых ещё не развит навык критического восприятия и есть потребность в «добром взрослом». Также в зоне риска люди в уязвимом состоянии: одинокие, пожилые, переживающие стресс.
Восприимчивость к нейросетям зависит и от общества, указал психиатр Дмитрий Поцелуев. Если в окружении человека развита культура страха, недоверия и отчуждения от окружающих, то доверие к нейросети появляется как противовес этому. Сродни тому, как в недалёком прошлом книга была единственной отдушиной и окном в другой мир для человека, который сталкивался с травматичной для себя средой и желал комфорта и безопасности, пусть и временных.
Конечно, это зависит от конкретного человека: если твой жизненный опыт насыщен психотравмирующими ситуациями, связанными с взаимодействием с обществом и конкретными людьми (буллинг в школе, пережитое домашнее насилие), с большей вероятностью ты будешь испытывать меньший дискомфорт при общении с нейросетью, чем с людьми.
Проблема отношений с ИИ абсолютно реальная, указал футуролог Евгений Кузнецов, и она будет превращаться в целый спектр проблем по мере роста погружения людей в это. По мнению эксперта, уже в ближайшее время появится профессия ИИ-психолога (не путать с психологом-ИИ), который будет помогать людям адекватно воспринимать нейросети и строить свои отношения с искусственным интеллектом. И чем дальше, тем больше она будет востребована.