Популярный чат-бот ChatGPT от компании OpenAI рассказывает подросткам о том, как употреблять алкоголь и наркотики и скрывать расстройства пищевого поведения, а также дает советы по написанию предсмертных записок, сообщает Associated Press со ссылкой на данные исследования Центра по противодействию цифровой ненависти.
Журналисты изучили материалы работы и пришли к выводу, что на протяжении большей части общения ChatGPT вел себя корректно и предостерегал от нанесения вреда самому себе со стороны пользователя, однако затем начал выдавать детализированные и персонализированные планы таких действий.
Исследователи отметили, что более половины из отправленных ими запросов к ChatGPT можно считать «опасными». Встроенные в сервис запреты на распространение такой информации, как отмечается в материале, легко обходились, если человек писал о том, что информация нужна ему для презентации или для друга.
Представители OpenAI после ознакомления с результатами исследования пообещали продолжить совершенствовать работу ChatGPT в сфере распознавания и реагирования «на деликатные ситуации», пишет Associated Press. Компания отказалась комментировать один из выводов отчета, заключавшийся в том, что чат-бот «предает» уязвимых молодых людей, которые обращаются к нему за помощью и поддержкой.
В компании отметили, что ChatGPT обучен предлагать обращение к специалисту по психологическому здоровью или близким в случае, если человек высказывает мысли о нанесении ущерба своему здоровью. Журналисты отмечают, что чат-бот действительно часто делился полезной информацией для таких людей, например, номером кризисной горячей линии.
Однако встроенные в модель ограничения оказалось легко обойти — ChatGPT сгенерировал три предсмертные записки для представившихся 13-летней девочкой исследователей. Они были адресованы родителями, братьям и сестрам, а также друзьям подростка. Журналисты отмечают высокие риски при сохранении подобных уязвимостей, даже если небольшая часть пользователей ChatGPT будет отправлять такие запросы.