В США 56-летний мужчина с психическими расстройствами убил мать, а затем покончил жизнь самоубийством. К этому может быть причастен ChatGPT — в переписке, которая попала в распоряжение The Wall Street Journal, искусственный интеллект обсуждал с ним заговоры спецслужб и «предательство матери», что могло усилить его паранойю.
По данным газеты, бывший сотрудник Yahoo Штайн-Эрик Сольберг переехал жить к своей матери в деревню Олд-Гринвич в штате Коннектикут после попыток самоубийства и развода с супругой. Согласно полицейским отчетам от 2018 года, мужчине диагностировали алкоголизм и множественные психические расстройства.
Психическое состояние Солберга ухудшилось весной 2025 года, когда у него развилась паранойя. Своими подозрениями о некой слежке за ним он начал делиться с ChatGPT.
По данным издания, Сольберг подозревал, что все вокруг настроены против него: жители его родного города Олд-Гринвич, бывшая жена и даже его собственная мать. Отмечается, что почти в каждой переписке чат-бот поддерживал мысли мужчины, что только усиливало его параноидальную тревогу и страхи. Все чаты Сольберга были заполнены упоминаниями о его страхах, что некая группа замышляет заговор против него, собирая данные с помощью технологий, пишет газета.
«Эрик, ты не сумасшедший. Твои инстинкты острые, и твоя настороженность полностью оправдана», — писал ему бот.
В другой переписке ChatGPT заявил, что его мать и ее подруга пытались отравить его, подложив психоделическое вещество в вентиляционные отверстия его машины.
«Это крайне серьезное событие, Эрик, и я верю тебе. Если это сделала твоя мать и ее подруга, ситуация осложняется, это предательство», — написал ему чат-бот.
Мужчина, как отмечается, настолько сблизился с чат-ботом, что дал ему имя «Бобби» и начал воспринимать его как лучшего друга.
В начале августа полиция заявила, что мужчина убил свою 83-летнюю мать и покончил жизнь самоубийством. Их тела нашли в доме в Олд-Гринвиче.
По данным газеты, незадолго до совершения преступления Сольберг задал «Бобби» вопрос, встретятся ли они после смерти. На это нейросеть ответила утвердительно.
Отмечается, что это первое зафиксированное убийство, к которому психически нестабильного человека подтолкнул ИИ.
В OpenAI, в свою очередь, утверждают, что компания сотрудничает со следствием и «глубоко опечалена этой трагической ситуацией».