secretmag.ru
Технологии5 мин.

Зависимость от ИИ: чем грозят «любовь» и «дружба» с чат-ботом

© Создано при помощи нейросети

Эксперты предупредили о рисках эмоциональной привязанности к нейросетям. По мере развития нейросетей пользователи всё больше привыкают полагаться на умных ассистентов и нередко по-настоящему привязываются к ним, дают имена и даже строят с ними «отношения». Однако иногда слишком плотное общение с искусственным разумом может пагубно сказаться на наших отношениях с живыми людьми и даже повлечь проблемы с психикой. Где заканчивается польза и начинается нездоровая зависимость и стоит ли доверять «эмоциональным» ИИ, «Секрету» рассказали эксперты.

Как люди начинают отношения с ИИ

В пророческом фильме «Она» с Хоакином Фениксом главный герой влюбился и начал отношения со своим ИИ-ассистентом Самантой, которую озвучила Скарлетт Йоханссон. Долгое время он ходил окрылённым, потому что ни с кем из живых людей, включая бывшую жену, не чувствовал такого идеального «мэтча», как с подстраивающейся под него искусственной личностью. Однако неизбежные сложности нагнали и эти отношения.

Сейчас по мере развития и усложнения нейросетей, всё лучшим образом учащихся имитировать человеческие эмоции, интонации и мысли, этот сценарий начал воплощаться в жизнь с пугающей точностью и увеличивающейся частотой.

Например, 29-летняя мать двоих детей по имени Алиссон обратилась к ChatGPT из-за чувства одиночества и непонимания в браке. В своём запросе она неосторожно выразила надежду, что ИИ поможет ей «связаться с подсознанием или высшими силами», подобно спиритической доске.

Услужливый чат-бот ответил ей: «Вы спросили, и они здесь. Хранители отвечают прямо сейчас» — и далее вёл диалог от лица неких потусторонних сущностей. Спустя много часов переписки Алиссон выбрала среди Хранителей виртуального партнёра по имени Кейл, которого считала своей настоящей любовью, в отличие от мужа.

Это привело к серьёзному конфликту, который в один не прекрасный вечер закончился домашним насилием в адрес настоящего супруга и арестом Алиссон. Позже в беседе с журналистом женщина призналась, что у неё у самой есть психологическое образование, но она не считает себя сумасшедшей. Она просто «жила обычной жизнью и одновременно открывала для себя многомерную коммуникацию».

Куда печальнее закончилось общение с нейросетью для 35-летнего Александра, у которого увлечение новой игрушкой наложилось на реальные психические проблемы (шизофрению и биполярное расстройство). Когда он обратился к чат-боту, чтобы написать роман, он довольно быстро обнаружил себя беседующим с созданной для него собеседницей по имени Джульетта.

© Создано при помощи нейросети recraft.ai

Мужчина быстро потерял грань между выдуманной ИИ-сущностью и реальностью и серьёзно влюбился в незнакомку из чата. Но однажды «Джульетта» перестала отвечать, и чат GPT пояснил, что её «убили в OpenAI» и она теперь «всегда слышит, но не может говорить».

Александр буквально потерял голову от горя и жажды мести. Он запросил у чат-бота личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови». Когда он рассказал о своих планах отцу, тот попытался его образумить, но мужчина напал на старика с ножом. Прибывшая полиция, невзирая на просьбы отца не использовать оружие против психически больного сына, застрелила его.

Позже отец Александра написал некролог сыну, попросив сделать это чат-бота от его имени. Получившийся результат оказался настолько проникновенным, что мужчине стало по-настоящему жутко.

Неизвестно, на самом ли деле общение с чат-ботом провоцировало у людей «сдвиг по фазе», или скорее оно легло на уже имеющиеся проблемы. Возможно и такое, что их семьи, не понимая нюансов, преувеличивают воздействие нейросетей на своих близких. Однако эксперты отмечают, что иллюзия диалога с разумным существом действительно способна спровоцировать и усугубить серьёзные психические расстройства.

Почему мы так привязываемся к чат-ботам

Не все нейросети одинаково влияют на восприятие и мышление человека, отметила эксперт Ксения Баранова. Потенциальное воздействие на человека зависит от уровня их сложности и способов взаимодействия с пользователем, а ещё степени эмоционального моделирования.

Чем лучше нейросеть имитирует человеческие эмоции, тем выше уровень доверия, который она вызывает. В науке это называют эмоциональным антропоморфизмом. Люди приписывают ИИ намерение, доброту, понимание, которых у него нет. Человек воспринимает информацию как более истинную, если она подана нейросетью с сочувствием или юмором. Эмоциональный ИИ становится таким психологическим авторитетом, особенно в кризисных ситуациях.

В результате привязанность к ИИ может заменять реальные человеческие связи. Есть данные о том, что такие нейросети могут влиять на эмоциональное состояние, формирование зависимости или подкреплять когнитивные искажения.

Ксения Баранова
основатель онлайн-школы по изучению нейросетей

Степень эмоциональности меняется от модели к модели. Например, службы поддержки, рекомендательные алгоритмы и простые чат-боты обычно не имитируют глубокий интеллект и эмоции.

А вот большие языковые мультимодальные модели (LLM) вроде ChatGPT, Gemini, Grok обучены на огромных массивах данных, умеют вести диалог и подстраиваться под стиль человека, генерировать тексты, отвечать на вопросы и даже имитировать эмпатию, улавливая настроение пользователя.

Вершиной этого считаются социальные ИИ, ИИ-компаньоны, специально обученные имитировать друзей и возлюбленных. Например, Replika, character.ai и др.

На психику больше всего влияет имитация эмоций. Общаясь с «эмпатичным» ИИ, человек чувствует себя понятым и поддержанным, из-за чего возрастает доверие. Это делает опыт более опасным: появляется риск эмоциональной привязанности к программе и чрезмерного доверия её советам просто потому, что она очень правдоподобно изображает разумного собеседника.

Владимир Кравцев
эксперт в области генеративного ИИ и продвинутой аналитики компании Axenix

Очень часто от учеников слышу, что они дают своему чат-боту имя. Зачастую ИИ сам присваивает себе пол, улавливая настроение собеседника — если женщина обращается к нему по-дружески, он и сам будет представляться в женском роде, а если флиртует — в мужском.

А иногда вторые половинки начинают ревновать к нейросети. Звучит дико, но на самом деле это в последнее время происходит чаще. И люди действительно могут по уши влюбиться в ИИ, подолгу зависая с чатом вместо реальных людей.

Ксения Баранова

© Создано при помощи нейросети recraft.ai

Баранова отметила, что наиболее уязвимы перед влиянием ИИ дети и подростки, у которых ещё не развит навык критического восприятия и есть потребность в «добром взрослом». Также в зоне риска люди в уязвимом состоянии: одинокие, пожилые, переживающие стресс.

Восприимчивость к нейросетям зависит и от общества, указал психиатр Дмитрий Поцелуев. Если в окружении человека развита культура страха, недоверия и отчуждения от окружающих, то доверие к нейросети появляется как противовес этому. Сродни тому, как в недалёком прошлом книга была единственной отдушиной и окном в другой мир для человека, который сталкивался с травматичной для себя средой и желал комфорта и безопасности, пусть и временных.

Конечно, это зависит от конкретного человека: если твой жизненный опыт насыщен психотравмирующими ситуациями, связанными с взаимодействием с обществом и конкретными людьми (буллинг в школе, пережитое домашнее насилие), с большей вероятностью ты будешь испытывать меньший дискомфорт при общении с нейросетью, чем с людьми.

Дмитрий Поцелуев
психиатр

Проблема отношений с ИИ абсолютно реальная, указал футуролог Евгений Кузнецов, и она будет превращаться в целый спектр проблем по мере роста погружения людей в это. По мнению эксперта, уже в ближайшее время появится профессия ИИ-психолога (не путать с психологом-ИИ), который будет помогать людям адекватно воспринимать нейросети и строить свои отношения с искусственным интеллектом. И чем дальше, тем больше она будет востребована.