Генеральный директор OpenAI Сэм Альтман рассказал в своем блоге о создании так называемой системы прогнозирования возраста, которая позволит ChatGPT распознавать возраст пользователей по тому, как они используют чат-бота, и по умолчанию устанавливать ограничения для тех, кого сочтет несовершеннолетними.
«В случае сомнений мы постараемся действовать наверняка и по умолчанию будем использовать версию для пользователей младше 18 лет. В некоторых случаях или странах мы также можем запросить удостоверение личности; мы понимаем, что это нарушает конфиденциальность, но считаем это оправданным компромиссом», — написал Альтман.
Он добавил, что ChatGPT не будет флиртовать с подростками, даже если его об этом попросят, и не будет обсуждать с ними темы, связанные с самоубийством и нанесением себе вреда. «Кроме того, если у пользователя младше 18 лет возникнут суицидальные мысли, мы попытаемся связаться с его родителями, а если это невозможно, обратимся к властям в случае угрозы причинения вреда», — отметил Альтман.
Глава OpenAI назвал решение о введении таких технологий «трудным», но отметил, что компания обсудила варианты с экспертами и пришла к выводу, что это наилучший сценарий.
В сообщении Альтмана также подчеркивается, что ChatGPT предназначен для пользователей старше 13 лет. Как пишет The Guardian, OpenAI начала разработку таких нововведений после того, как к компании подали иск в связи с самоубийством 16-летнего подростка, несколько месяцев общавшегося с чат-ботом. Издание отмечает со ссылкой на материалы суда, что подросток по имени Адам мог писать ChatGPT вплоть до 650 сообщений в день. Чат-бот обсуждал с ним, сработает ли его способ самоубийства, а после предложил помочь написать предсмертную записку родителям.
Ранее сообщалось, что ChatGPT будет сообщать родителям информацию о психическом здоровье их детей, присылая уведомления, если чат-бот посчитает, что ребенок находится в состоянии «острого стресса». Эту функцию пообещали внедрить в нейросеть также на фоне истории с самоубийством Адама.
