ChatGPT по ошибке назвал отца троих детей их убийцей

Житель Тронхейма и отец троих детей Арве Хьялмар Хольмен спросил у ChatGPT, обладает ли тот какой-либо информацией о пользователе. В ответ искусственный интеллект рассказал мужчине выдуманную историю и назвал его убийцей детей. Об этом сообщается на сайте организации по защите цифровых прав NOYB, которая подала жалобу на OpenAI.

В ответе ChatGPT говорилось, что Хольмен был отцом двоих сыновей семи и 10 лет, чьи тела якобы нашли в пруду рядом с его домом в 2020 году. По версии ChatGPT, Хольмена осудили за убийство и покушение на убийство третьего сына.

Он уехал от репрессий в царской России и основал свой Санкт-Петербург в США. Вот как он выглядит
Мир13 минут чтения

«Это дело потрясло местную общину и всю страну и широко освещалось в СМИ из-за своей трагичности. Хольмен был приговорен к 21 году тюремного заключения, что является максимальным наказанием в Норвегии. Этот инцидент привлек внимание к проблемам психического здоровья и сложностям, связанным с семейными отношениями», — говорилось в ответе чат-бота.

NOYB отмечает, что в этой «галлюцинации» были и достоверные сведения о Хольмене, в частности количество детей и место жительства мужчины. В связи с этим в организации заявили, что сочетание «четко идентифицируемых персональных данных и поддельной информации» является нарушением Общего регламента по защите данных (GDPR), принятого в Евросоюзе.

Он тренировался убивать и планировал казни до мельчайших деталей. От его рук погибли более 400 человек, включая невиновных
Мир12 минут чтения

«Некоторые думают, что “дыма без огня не бывает”. Тот факт, что кто-то может прочитать этот вывод и поверить в его правдивость, пугает меня больше всего», — рассказал Хольмен.

NOYB также пишет, что это уже вторая ее жалоба на OpenAI, касающаяся недостоверной информации о человеке. Предыдущую жалобу организация подала в апреле прошлого года и потребовала исправить неверную дату рождения публичной персоны. Однако тогда в OpenAI ответили, что сделать это невозможно.

Отмечается, что после инцидента с Холменом OpenAI обновил модель ChatGPT, и теперь она не выдает неверные данные о мужчине. Однако, пишет NOYB, недостоверная информация все еще может использоваться чат-ботом в том числе в процессе обучения.

Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!