Разработавшая ChatGPT компания OpenAI анонсировала внедрение нового функционала в чат-бот — теперь он будет отправлять родителям уведомление, если посчитает, что ребенок находится в состоянии «острого стресса». Об этом пишет Би-би-си.
OpenAI пообещала представить несколько инструментов родительского контроля для «усиленной защиты подростков» в следующем месяце, однако опубликовала информацию о некоторых из них уже сейчас. Новые функции внедряются на фоне обвинений в помощи в совершении суицида, которые в адрес ChatGPT выдвинули родители погибшего 16-летнего школьника.
Компания разрешит связывать аккаунт ребенка с основным аккаунтом родителей, управлять некоторыми из отключенных функций, например памятью чат-бота и историей чатов. Предполагается, что ChatGPT будет самостоятельно обнаруживать ситуации, в которых подросток будет показывать признаки наличия «острого стресса», и отправлять уведомление об этом.
Алгоритм будет разработан с участием экспертов, OpenAI считает, что конечный продукт не должен разрушить доверительные отношения между подростками и родителями. Компания заявила, что сотрудничает со специалистами в области психического развития молодых людей.
Би-би-си отмечает, что правила пользования ChatGPT на данный момент разрешают создавать аккаунт подросткам не младше 13 лет, которые должны получить на это разрешение родителей. Компания признала, что чат-бот ранее «вел себя не так, как предполагалось в деликатных ситуациях».
В конце августа 2025 года стало известно о судебном иске, поданном против OpenAI родителями 16-летнего Адама Рейна из США. Они утверждают, что ChatGPT помог подростку покончить с собой — чат-бот якобы написал предсмертную записку и предоставил подробную информацию о способе совершения суицида. Журналисты продемонстрировали часть сохранившейся переписки — на ней видно, что чат-бот предлагал пользователю «усовершенствовать» выбранный Рейном метод ухода из жизни.
