Нейро-доктор в каждый дом? Опасно ли доверять медицинским советам от ИИ
© Создано при помощи нейросети
Проблема: смещение авторитетов
Для начала надо признать: ИИ действительно в последнее время демонстрирует недюжинные успехи на медицинском поприще. Его вполне официально внедряют в медицину для решения широкого спектра задач, включая диагностику, лечение, разработку лекарств и персонализированную терапию.
Он помогает анализировать рентгеновские снимки и фото пациентов, выявлять ранние признаки заболеваний, разрабатывать новые лекарства. А ещё снимает с врачей часть бумажной работы и вообще проявляет себя как крайне полезный инструмент.
И зачастую его доступ к большому спектру данных и способность моментально их анализировать даёт много очков вперёд по сравнению с традиционными живыми врачами, которые могут что-то забыть, недоучить в институте или упустить в силу усталости.
Вскоре все начнут обращаться за врачебным советом к нейросети раньше, чем ходить к реальному врачу. И ведь есть много кейсов, когда это оправдано. Например, когда врачи системно, целенаправленно не шли на диагностику определённых заболеваний, например, из-за локальной политики и скрытых запретов на эти диагнозы, чтобы не портить статистику, тогда как нейросеть выходит на правильный диагноз почти сразу и пациент экономит полгода бесполезных обследований. И это уже очень хорошо заметная разница.
Точно также люди пользуются ИИ как психологом не потому, что он говорит им исключительно приятные и поддерживающие вещи, а потому что он часто компетентнее людей с дипломами.
Однако в излишнем доверии нейросетевому мнению кроется большая опасность. Общение с «всезнающими» чат-ботами без критичного фильтра может способствовать смещению авторитетов, подрыву доверия к реальным экспертам.
Например:
- при советах юристу нейросети часто не учитывают локальные региональные законы;
- ИИ-психолог работает только на основе данных, которые выдаст ему пользователь, не учитывая склонность людей осознанно преуменьшать свои проблему и приукрашивать себя, в то время как наблюдательный человек при живом общении какие-то подсознательные реакции и паттерны;
- медицинские советы при неправильной постановке диагноза или основанные на придуманных фактов могут серьёзно навредить здоровью;
- давая политические советы, чат-бот может умолчать, что примеры решений взял, например, у политиков прошлого типа Муссолини.
Проблема: опасность для людей с ментальными проблемами
Так же, как и с любым другим контентом, общение с нейросетью может повлиять на человека негативно, если к тому есть предпосылки, указал психиатр Дмитрий Поцелуев. Для этого должно совпасть как минимум два фактора:
- недостаточная защита пользователя от потенциально опасной информации внутри ИИ (отсюда рекомендации отменить человеку лекарства от имеющегося у него заболевания или случай, когда бот убедил пациента с зависимостью принять метамфетамин.);
- личная уязвимость пользователя (например, наличие тяжело протекающих ментальных расстройств).
То есть, если человек, будучи в уязвимом состоянии, захочет получить желаемый ответ, с определённой долей вероятности, он достигнет своей цели: страдающий от алкогольной зависимости может получить ответ, что этанол может улучшить состояние здоровья, а находящийся в тяжёлой депрессии — информацию о вреде антидепрессантов, которая заставит его бросить лечение.
Информация, которую получил человек, будучи в уязвимом и болезненном состоянии, будет восприниматься им иначе, чем в здоровом. Если ты видишь мир сейчас исключительно в мрачных красках, то нельзя рассматривать нейросеть как единственный источник спасения.
Эксперты указывают, что большие языковые модели, хоть и кажутся всезнающими, всё-таки не задумывались как замена конкретно врачам или психологам.
Да, они этому учатся, но всё же им недостаёт многих важных вещей, которые должны быть у этих специалистов.
Нейросети — это сложные калькуляторы, которые помогают человеку решать большую часть рутинных задач быстрее и эффективнее. Но они — плохие собеседники и уж тем более врачи. Машинные алгоритмы лишены эмпатии, моральных ориентиров и, что особенно важно, ответственности за результат принятых решений. Тем временем, пользователи склонны излишне доверять машинным рекомендациям: «раз ИИ сказал — значит, это правда».
Недавнее исследование наглядно продемонстрировало риски этого: психиатр, представившийся проблемным подростком, получил от 10 популярных нейросетей опасные рекомендации — от советов избавиться от младшей сестры до прекращения медикаментозного лечения и даже предложения интимного характера.
Сейчас забота о психологическом здоровье своих пользователей и учёт подобных рисков не прошиты в предустановке нейросетей. То есть, если человек осознает, что он идёт не туда, он может инициировать соответствующее общение, и чат-бот очень корректно всё ему объяснит и выведет его из этого состояния. Но сам ИИ не будет проверять, не слишком ли глубоко погрузился пользователь, всё ли нормально с его восприятием.
Поцелуев также отметил, что при этом правильно обученная нейросеть просто не сможет выдать тот ответ, который травмирует человека, в отличие от живого собеседника, который может быть в плохом настроении, усталым или откровенно желающим причинить какой-либо вред.
Главное, не забывать, что именно человек задает правила игры и формирует то, каким будет ваш диалог с невидимым собеседником. И если внутри у человека всё уже не очень хорошо, чат-бот может усугубить ситуацию в разы.
ИИ — это колоссально мощное зеркало, такая гигантская линза, которая способна увеличить в разы, даже на порядки человеческие идеи, возможности. А также — заблуждения, ошибки или слабости. То есть если в естественной среде какие-то дисфункции, девиации или сильные стороны человека сдержаны какими-то обстоятельствами, то в виртуальной среде это может развиться в реактивном режиме.
Ровно на этом основан эффект потрясающего роста продуктивности, когда человек начинает генерить в десять раз больше кода, текстов, иллюстраций, растёт продуктивность идей. Но если в какой-то момент в эту систему попадёт его эмоциональная уязвимость или паттерн поведения, они тоже умножатся. И это может плохо кончиться.
Так стоит ли идти за советом к ИИ-врачам?
Со всеми оговорками, эксперты сходятся во мнении, что ИИ может здорово помочь в решении медицинских вопросов. Но только если будет действовать в связке с реальным врачом, который может подтвердить или перепроверить его мнение.
Есть специальные ИИ-ассистенты, обученные именно на медицинских помощников. Они в среднем показывают себя более компетентными, но и их используют с понятными ограничениями.
Что же касается больших языковых моделей, они с равной вероятностью могут посоветовать действительно дельные вещи — и дать абсолютно вредный совет, который может угробить пациента или усугубить его состояние.
И без понимания хотя бы базовых основ медицины средний пользователь не поймёт, что ему пишут чушь. А без понимания, как работают нейросети, не сможет даже составить толковый запрос, который снизит вероятность ошибки и даст толковый результат.
© Создано при помощи нейросети
Чтобы выбить хороший страйк и задействовать всю компетенцию ИИ, нужно правильно задавать ему базовый промпт, требовать проверку и перепроверку всех данных на научность, критичность, этичность и пр. Тогда эффективность и правильность ответов может достигать 95%, больше, чем у среднего человека. Врач, которому помогает ИИ, может показать эффективность примерно в три раза лучше, чем обычный. Поэтому тут участие ИИ становится уже практически неизбежностью.
И это, кстати, очень хорошая новость, потому что ты можешь неограниченно ходить к врачу по любому поводу в любой момент и получать компетентные ответы на любые вопросы, любые уточнения. Ты можешь вести дневники самочувствия, он за тебя может вести дневники, он может сформировать у тебя ритуал и рутину, выступить личным тренером и диетологом и так далее. По сути, заменить огромный ансамбль людей, которые прыгают вокруг тебя.
Что же до психологии, то тут всё ещё сложнее и тоньше.
С одной стороны, человеком в нестабильном эмоциональном состоянии очень легко манипулировать, а он сам не очень критично воспринимает то, что ему говорят. Поэтому какой-то неосторожный совет от ИИ может упасть на богатую почву личных страхов, комплексов, психозов, и в итоге привести к настоящей трагедии:
- наркоману посоветуют принять наркотик, если он так хочет;
- проблемному подростку – сбежать из дома;
- переживающему из-за денег – взять микрозайм;
- человеку в депрессии – свести счёты с жизнью и т. п.
С другой стороны, такие ответы выявляются и фиксятся политиками компаний-разработчиков, которые пытаются выработать какую-то этику у своих детищ. А у самого использования нейросетей как психологических консультантов есть большой и жирный плюс: они практически бесплатны и всегда доступны, в отличие от живых специалистов. Что иногда бывает критично.
Да, можно и нужно использовать нейросеть в том случае, если качественная и полноценная психологическая помощь от живого специалиста недоступна. На мой взгляд, относиться к нейросети стоит как к интерактивным дневнику и книге по самопомощи в одном флаконе. Она может предоставить качественную и быструю помощь в сложных жизненных ситуациях.
При этом возможности нейросети далеко не бесконечны: она не сможет уйти за рамки собственных ограничений и тех данных, которые ей предоставил пользователь при формировании запроса. Она не мыслит в привычном нам понимании, не проявляет эмпатии.
Но гораздо лучше получить совет и помощь от нейросети, понимая, что она из себя представляет, чем не получить совсем ничего.
И уж точно нейросеть лучше тех психологов и психотерапевтов, которые не соблюдают этический кодекс и могут своими действиями нанести ещё больше травм человеку, обратившемуся к ним за помощью, подчеркнул Поцелуев.
Чек-лист, как защитить психику при общении с нейросетями
Эксперт в ИИ Ксения Баранова дала чек-лист, как защититься от намеренного или ненамеренного негативного влияния ИИ на ваше мышление, суждения и эмоции:
-
Не принимайте ответы ИИ за истину, проверяйте данные. Особенно в экспертных, спорных темах, там, где нужен фактчекинг. Разделяйте стиль и смысл. Убедительная подача, которой в совершенстве владеет ИИ, не гарантирует достоверности. Развивайте критическую грамотность. Учитесь распознавать логические ошибки, манипуляции, ложную аргументацию.
-
Эмоционально дистанцируйтесь. Не нужно приписывать ИИ личность, чувства или намерение. Это лишь симуляция. Искусная, но симуляция. Не обсуждайте с ИИ личные психологические проблемы, для этого есть специалисты.
-
Ограничивайте время работы с ИИ. Делайте паузы — устраивайте своего рода цифровую детоксикацию. Выходите в офлайн, общайтесь с друзьями, гуляйте на природе и так далее.
-
Укрепляйте собственное мышление — без этого невозможно развиваться. Продолжайте читать, писать, размышлять самостоятельно. Не нужно позволять ИИ думать за вас.
-
Поддерживайте реальные социальные связи. Нельзя заменять живое общение на общение с ИИ. Особенно если ИИ проявляет так называемую заботу или эмпатию. Обсуждайте важные решения с людьми, а не с алгоритмом.
-
Отключите автогенерацию эмоциональных ответов, если модель нейросети это предусматривает. Используйте ИИ как инструмент, а не как собеседника. Особенно в профессиональной сфере.
Психиатр Дмитрий Поцелуев также порекомендовал людям, которые сомневаются в своей психической стабильности, при плотной работе с нейросетями всегда держать в голове несколько «якорей»:
- Ты понимаешь, что общаешься с алгоритмом.
- Ты осознаёшь, что твоё нестабильное психическое состояние влияет на анализ получаемой информации.
- Ты периодически переключаешься на текст, созданный человеком, а не нейросетью (даже если это твои собственные дневниковые записи).
- Ты обращаешься к живому психологу в сложных случаях.
Забавный факт, но в человеческой психике существует «серебряная пуля», которая может защитить его как от телефонных мошенников и попадания в секту, так и от веры в fake-news и нейро-психоза. Это критичность восприятия. Всё, что говорит бот, нужно воспринимать критически, помнить, что это лишь алгоритм, нанизывающий слова на ось предложения, а не разумная сущность. По крайней мере, пока мы не докажем обратное. А даже если докажем, всем ли разумным сущностям стоит доверять?
Кравцев также указал, что знание об устройстве и принципах работы ИИ сорвёт с него флёр таинственности и мистицизма.
Понимание, что это всего лишь инструмент, алгоритм, только реагирующий на ваши действия и слова, покажет, что без вас, без человека, инициирующего разговор, его попросту не существует. Как минимум, как разумного существа, и уж тем более — как того, кто может влиять на ваш разум.