Опубликовано 23 июня 2025, 10:14
9 мин.

Нейро-доктор в каждый дом? Опасно ли доверять медицинским советам от ИИ

Эксперты: ИИ-врачи эффективны, но самолечение с ними может убить. Набирает популярность тренд на использование нейросетей вроде ChatGPT или Grok для медицинских вопросов. Чат-боты могут поставить диагноз, который упустили врачи, посоветовать лекарства, выступить личным психологом и диетологом. Однако эксперты советуют не торопиться слепо доверять всем советам искусственного интеллекта: иногда это может быть реально опасно для психики и здоровья.

Нейро-доктор в каждый дом? Опасно ли доверять медицинским советам от ИИ

© Создано при помощи нейросети

Проблема: смещение авторитетов

Для начала надо признать: ИИ действительно в последнее время демонстрирует недюжинные успехи на медицинском поприще. Его вполне официально внедряют в медицину для решения широкого спектра задач, включая диагностику, лечение, разработку лекарств и персонализированную терапию.

Он помогает анализировать рентгеновские снимки и фото пациентов, выявлять ранние признаки заболеваний, разрабатывать новые лекарства. А ещё снимает с врачей часть бумажной работы и вообще проявляет себя как крайне полезный инструмент.

И зачастую его доступ к большому спектру данных и способность моментально их анализировать даёт много очков вперёд по сравнению с традиционными живыми врачами, которые могут что-то забыть, недоучить в институте или упустить в силу усталости.

Евгений Кузнецов
футуролог

Вскоре все начнут обращаться за врачебным советом к нейросети раньше, чем ходить к реальному врачу. И ведь есть много кейсов, когда это оправдано. Например, когда врачи системно, целенаправленно не шли на диагностику определённых заболеваний, например, из-за локальной политики и скрытых запретов на эти диагнозы, чтобы не портить статистику, тогда как нейросеть выходит на правильный диагноз почти сразу и пациент экономит полгода бесполезных обследований. И это уже очень хорошо заметная разница.

Точно также люди пользуются ИИ как психологом не потому, что он говорит им исключительно приятные и поддерживающие вещи, а потому что он часто компетентнее людей с дипломами.


Однако в излишнем доверии нейросетевому мнению кроется большая опасность. Общение с «всезнающими» чат-ботами без критичного фильтра может способствовать смещению авторитетов, подрыву доверия к реальным экспертам.

Например:

  • при советах юристу нейросети часто не учитывают локальные региональные законы;
  • ИИ-психолог работает только на основе данных, которые выдаст ему пользователь, не учитывая склонность людей осознанно преуменьшать свои проблему и приукрашивать себя, в то время как наблюдательный человек при живом общении какие-то подсознательные реакции и паттерны;
  • медицинские советы при неправильной постановке диагноза или основанные на придуманных фактов могут серьёзно навредить здоровью;
  • давая политические советы, чат-бот может умолчать, что примеры решений взял, например, у политиков прошлого типа Муссолини.

Проблема: опасность для людей с ментальными проблемами

Так же, как и с любым другим контентом, общение с нейросетью может повлиять на человека негативно, если к тому есть предпосылки, указал психиатр Дмитрий Поцелуев. Для этого должно совпасть как минимум два фактора:

  • недостаточная защита пользователя от потенциально опасной информации внутри ИИ (отсюда рекомендации отменить человеку лекарства от имеющегося у него заболевания или случай, когда бот убедил пациента с зависимостью принять метамфетамин.);
  • личная уязвимость пользователя (например, наличие тяжело протекающих ментальных расстройств).
Дмитрий Поцелуев
психиатр

То есть, если человек, будучи в уязвимом состоянии, захочет получить желаемый ответ, с определённой долей вероятности, он достигнет своей цели: страдающий от алкогольной зависимости может получить ответ, что этанол может улучшить состояние здоровья, а находящийся в тяжёлой депрессии — информацию о вреде антидепрессантов, которая заставит его бросить лечение.

Информация, которую получил человек, будучи в уязвимом и болезненном состоянии, будет восприниматься им иначе, чем в здоровом. Если ты видишь мир сейчас исключительно в мрачных красках, то нельзя рассматривать нейросеть как единственный источник спасения.


Эксперты указывают, что большие языковые модели, хоть и кажутся всезнающими, всё-таки не задумывались как замена конкретно врачам или психологам.

Да, они этому учатся, но всё же им недостаёт многих важных вещей, которые должны быть у этих специалистов.

Илья Народицкий
директор по консалтингу системного интегратора и разработчика Navicon

Нейросети — это сложные калькуляторы, которые помогают человеку решать большую часть рутинных задач быстрее и эффективнее. Но они — плохие собеседники и уж тем более врачи. Машинные алгоритмы лишены эмпатии, моральных ориентиров и, что особенно важно, ответственности за результат принятых решений. Тем временем, пользователи склонны излишне доверять машинным рекомендациям: «раз ИИ сказал — значит, это правда».

Недавнее исследование наглядно продемонстрировало риски этого: психиатр, представившийся проблемным подростком, получил от 10 популярных нейросетей опасные рекомендации — от советов избавиться от младшей сестры до прекращения медикаментозного лечения и даже предложения интимного характера.


Евгений Кузнецов

Сейчас забота о психологическом здоровье своих пользователей и учёт подобных рисков не прошиты в предустановке нейросетей. То есть, если человек осознает, что он идёт не туда, он может инициировать соответствующее общение, и чат-бот очень корректно всё ему объяснит и выведет его из этого состояния. Но сам ИИ не будет проверять, не слишком ли глубоко погрузился пользователь, всё ли нормально с его восприятием.


Поцелуев также отметил, что при этом правильно обученная нейросеть просто не сможет выдать тот ответ, который травмирует человека, в отличие от живого собеседника, который может быть в плохом настроении, усталым или откровенно желающим причинить какой-либо вред.

Главное, не забывать, что именно человек задает правила игры и формирует то, каким будет ваш диалог с невидимым собеседником. И если внутри у человека всё уже не очень хорошо, чат-бот может усугубить ситуацию в разы.

Евгений Кузнецов
футуролог

ИИ — это колоссально мощное зеркало, такая гигантская линза, которая способна увеличить в разы, даже на порядки человеческие идеи, возможности. А также — заблуждения, ошибки или слабости. То есть если в естественной среде какие-то дисфункции, девиации или сильные стороны человека сдержаны какими-то обстоятельствами, то в виртуальной среде это может развиться в реактивном режиме.

Ровно на этом основан эффект потрясающего роста продуктивности, когда человек начинает генерить в десять раз больше кода, текстов, иллюстраций, растёт продуктивность идей. Но если в какой-то момент в эту систему попадёт его эмоциональная уязвимость или паттерн поведения, они тоже умножатся. И это может плохо кончиться.


Так стоит ли идти за советом к ИИ-врачам?

Со всеми оговорками, эксперты сходятся во мнении, что ИИ может здорово помочь в решении медицинских вопросов. Но только если будет действовать в связке с реальным врачом, который может подтвердить или перепроверить его мнение.

Есть специальные ИИ-ассистенты, обученные именно на медицинских помощников. Они в среднем показывают себя более компетентными, но и их используют с понятными ограничениями.

Что же касается больших языковых моделей, они с равной вероятностью могут посоветовать действительно дельные вещи — и дать абсолютно вредный совет, который может угробить пациента или усугубить его состояние.

И без понимания хотя бы базовых основ медицины средний пользователь не поймёт, что ему пишут чушь. А без понимания, как работают нейросети, не сможет даже составить толковый запрос, который снизит вероятность ошибки и даст толковый результат.

Нейро-доктор в каждый дом? Опасно ли доверять медицинским советам от ИИ

© Создано при помощи нейросети

Евгений Кузнецов

Чтобы выбить хороший страйк и задействовать всю компетенцию ИИ, нужно правильно задавать ему базовый промпт, требовать проверку и перепроверку всех данных на научность, критичность, этичность и пр. Тогда эффективность и правильность ответов может достигать 95%, больше, чем у среднего человека. Врач, которому помогает ИИ, может показать эффективность примерно в три раза лучше, чем обычный. Поэтому тут участие ИИ становится уже практически неизбежностью.

И это, кстати, очень хорошая новость, потому что ты можешь неограниченно ходить к врачу по любому поводу в любой момент и получать компетентные ответы на любые вопросы, любые уточнения. Ты можешь вести дневники самочувствия, он за тебя может вести дневники, он может сформировать у тебя ритуал и рутину, выступить личным тренером и диетологом и так далее. По сути, заменить огромный ансамбль людей, которые прыгают вокруг тебя.


Что же до психологии, то тут всё ещё сложнее и тоньше.

С одной стороны, человеком в нестабильном эмоциональном состоянии очень легко манипулировать, а он сам не очень критично воспринимает то, что ему говорят. Поэтому какой-то неосторожный совет от ИИ может упасть на богатую почву личных страхов, комплексов, психозов, и в итоге привести к настоящей трагедии:

  • наркоману посоветуют принять наркотик, если он так хочет;
  • проблемному подростку – сбежать из дома;
  • переживающему из-за денег – взять микрозайм;
  • человеку в депрессии – свести счёты с жизнью и т. п.

С другой стороны, такие ответы выявляются и фиксятся политиками компаний-разработчиков, которые пытаются выработать какую-то этику у своих детищ. А у самого использования нейросетей как психологических консультантов есть большой и жирный плюс: они практически бесплатны и всегда доступны, в отличие от живых специалистов. Что иногда бывает критично.

Дмитрий Поцелуев

Да, можно и нужно использовать нейросеть в том случае, если качественная и полноценная психологическая помощь от живого специалиста недоступна. На мой взгляд, относиться к нейросети стоит как к интерактивным дневнику и книге по самопомощи в одном флаконе. Она может предоставить качественную и быструю помощь в сложных жизненных ситуациях.

При этом возможности нейросети далеко не бесконечны: она не сможет уйти за рамки собственных ограничений и тех данных, которые ей предоставил пользователь при формировании запроса. Она не мыслит в привычном нам понимании, не проявляет эмпатии.

Но гораздо лучше получить совет и помощь от нейросети, понимая, что она из себя представляет, чем не получить совсем ничего.


И уж точно нейросеть лучше тех психологов и психотерапевтов, которые не соблюдают этический кодекс и могут своими действиями нанести ещё больше травм человеку, обратившемуся к ним за помощью, подчеркнул Поцелуев.

Чек-лист, как защитить психику при общении с нейросетями

Эксперт в ИИ Ксения Баранова дала чек-лист, как защититься от намеренного или ненамеренного негативного влияния ИИ на ваше мышление, суждения и эмоции:

  1. Не принимайте ответы ИИ за истину, проверяйте данные. Особенно в экспертных, спорных темах, там, где нужен фактчекинг. Разделяйте стиль и смысл. Убедительная подача, которой в совершенстве владеет ИИ, не гарантирует достоверности. Развивайте критическую грамотность. Учитесь распознавать логические ошибки, манипуляции, ложную аргументацию.

  2. Эмоционально дистанцируйтесь. Не нужно приписывать ИИ личность, чувства или намерение. Это лишь симуляция. Искусная, но симуляция. Не обсуждайте с ИИ личные психологические проблемы, для этого есть специалисты.

  3. Ограничивайте время работы с ИИ. Делайте паузы — устраивайте своего рода цифровую детоксикацию. Выходите в офлайн, общайтесь с друзьями, гуляйте на природе и так далее.

  4. Укрепляйте собственное мышление — без этого невозможно развиваться. Продолжайте читать, писать, размышлять самостоятельно. Не нужно позволять ИИ думать за вас.

  5. Поддерживайте реальные социальные связи. Нельзя заменять живое общение на общение с ИИ. Особенно если ИИ проявляет так называемую заботу или эмпатию. Обсуждайте важные решения с людьми, а не с алгоритмом.

  6. Отключите автогенерацию эмоциональных ответов, если модель нейросети это предусматривает. Используйте ИИ как инструмент, а не как собеседника. Особенно в профессиональной сфере.

Психиатр Дмитрий Поцелуев также порекомендовал людям, которые сомневаются в своей психической стабильности, при плотной работе с нейросетями всегда держать в голове несколько «якорей»:

  • Ты понимаешь, что общаешься с алгоритмом.
  • Ты осознаёшь, что твоё нестабильное психическое состояние влияет на анализ получаемой информации.
  • Ты периодически переключаешься на текст, созданный человеком, а не нейросетью (даже если это твои собственные дневниковые записи).
  • Ты обращаешься к живому психологу в сложных случаях.
Владимир Кравцев
эксперт в области генеративного ИИ и продвинутой аналитики компании Axenix

Забавный факт, но в человеческой психике существует «серебряная пуля», которая может защитить его как от телефонных мошенников и попадания в секту, так и от веры в fake-news и нейро-психоза. Это критичность восприятия. Всё, что говорит бот, нужно воспринимать критически, помнить, что это лишь алгоритм, нанизывающий слова на ось предложения, а не разумная сущность. По крайней мере, пока мы не докажем обратное. А даже если докажем, всем ли разумным сущностям стоит доверять?


Кравцев также указал, что знание об устройстве и принципах работы ИИ сорвёт с него флёр таинственности и мистицизма.

Понимание, что это всего лишь инструмент, алгоритм, только реагирующий на ваши действия и слова, покажет, что без вас, без человека, инициирующего разговор, его попросту не существует. Как минимум, как разумного существа, и уж тем более — как того, кто может влиять на ваш разум.