В мире стремительно растет число людей, использующих ChatGPT и другие генеративные нейросети в качестве бесплатного психотерапевта. Психолог Карли Добер в колонке для The Guardian называет эту тенденцию тревожной и опасной. Она убеждена, что ИИ способен усугубить внутренние проблемы, особенно в тех случаях, когда его ответы воспринимаются как безошибочные и окончательные.
Добер приводит случай из частной практики: один из ее пациентов начал использовать ChatGPT, чтобы проверять, «правильно ли» формулирует мысли в конфликтах с партнером. Он очень быстро привык запрашивать у ИИ советы, тексты сообщений и даже интерпретации собственных эмоций. Психолог отмечает, что мужчина переформулировал запросы чату до тех пор, пока не получал ответ, который казался ему правильным. Таким образом, вместо того, чтобы учиться справляться с неопределенностью и анализировать чувства, ее пациент искал четкие формулировки и «правильные» решения.
ИИ предлагал вежливые и логичные тексты, но они звучали чуждо. В конце концов партнер мужчины заметила неладное, и отношения стали еще напряженнее, говорит Карли Добер. Она подчеркивает, что «всегда включенный» в проблемы и дружелюбный ИИ может быть особенно опасен для людей с тревожными расстройствами, ОКР или посттравматическими симптомами. Это связано с тем, что он, хоть и бесконечно генерирует успокаивающие формулировки, но встречных вопросов при этом не задает. Чат не спрашивает, почему человек снова и снова ищет подтверждения своим идеям, не предлагает остановиться и понаблюдать за эмоциями, а ведь это ключевая часть терапии, поясняет психолог.
Помимо психологических последствий, автор колонки указывает также на юридические риски. Информация, которой пользователи делятся с ИИ, не защищена теми же стандартами конфиденциальности, что при работе с лицензированными специалистами. К тому же, алгоритмы могут выдавать неправду или воспроизводить предвзятости, заложенные в обучающих данных, говорится в публикации.
По словам Добер, генеративный ИИ может быть полезен в отдельных случаях — например, как источник справочной информации или поддержки там, где нет доступа к специалистам. Но он не должен восприниматься как полноценная замена терапии.
«Хорошая терапия — это не идеальные фразы. Это совместный, порой неловкий процесс, в котором формируются навыки и появляется доверие к себе», — резюмирует эксперт.
Ранее эксперты объяснили чрезмерную вежливость, с которой ChatGPT отвечает на запросы пользователей, и связанные с такой манерой общения риски.
