Специалист предупредила о рисках замены психотерапии разговорами с ИИ

В мире стремительно растет число людей, использующих ChatGPT и другие генеративные нейросети в качестве бесплатного психотерапевта. Психолог Карли Добер в колонке для The Guardian называет эту тенденцию тревожной и опасной. Она убеждена, что ИИ способен усугубить внутренние проблемы, особенно в тех случаях, когда его ответы воспринимаются как безошибочные и окончательные.

Добер приводит случай из частной практики: один из ее пациентов начал использовать ChatGPT, чтобы проверять, «правильно ли» формулирует мысли в конфликтах с партнером. Он очень быстро привык запрашивать у ИИ советы, тексты сообщений и даже интерпретации собственных эмоций. Психолог отмечает, что мужчина переформулировал запросы чату до тех пор, пока не получал ответ, который казался ему правильным. Таким образом, вместо того, чтобы учиться справляться с неопределенностью и анализировать чувства, ее пациент искал четкие формулировки и «правильные» решения.

Молодые хакеры обходят системы безопасности крупнейших компаний мира. Они обнаружили там «серьезную брешь»
Интернет и мемы10 минут чтения

ИИ предлагал вежливые и логичные тексты, но они звучали чуждо. В конце концов партнер мужчины заметила неладное, и отношения стали еще напряженнее, говорит Карли Добер. Она подчеркивает, что «всегда включенный» в проблемы и дружелюбный ИИ может быть особенно опасен для людей с тревожными расстройствами, ОКР или  посттравматическими симптомами. Это связано с тем, что он, хоть и бесконечно генерирует успокаивающие формулировки, но встречных вопросов при этом не задает. Чат не спрашивает, почему человек снова и снова ищет подтверждения своим идеям, не предлагает остановиться и понаблюдать за эмоциями, а ведь это ключевая часть терапии, поясняет психолог.

Помимо психологических последствий, автор колонки указывает также на юридические риски. Информация, которой пользователи делятся с ИИ, не защищена теми же стандартами конфиденциальности, что при работе с лицензированными специалистами. К тому же, алгоритмы могут выдавать неправду или воспроизводить предвзятости, заложенные в обучающих данных, говорится в публикации.

Он выдавал пациентам страшные диагнозы и призывал делать дорогую диагностику там, где этого не требовалось
Общество9 минут чтения

По словам Добер, генеративный ИИ может быть полезен в отдельных случаях — например, как источник справочной информации или поддержки там, где нет доступа к специалистам. Но он не должен восприниматься как полноценная замена терапии.

«Хорошая терапия — это не идеальные фразы. Это совместный, порой неловкий процесс, в котором формируются навыки и появляется доверие к себе», — резюмирует эксперт.

Ранее эксперты объяснили чрезмерную вежливость, с которой ChatGPT отвечает на запросы пользователей, и связанные с такой манерой общения риски.

Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!

Самое читаемое

Она хотела лучше понять мужчин — но эксперимент закончился плачевно
00:01 13 января
Супружеская пара похитила девушку, которая ехала автостопом. Они сделали ее рабыней на семь лет
00:01 7 января
Меня называют плохой матерью, а я считаю, что это лучший выбор в нашей ситуации
00:01 12 января