У мужчины развилось редкое заболевание после консультации с ChatGPT

Американский медицинский журнал Annals of Internal Medicine опубликовал статью, в которой авторы из Вашингтонского университета в Сиэтле рассказали о случае отравления 60-летнего пациента бромом после того, как он проконсультировался с ChatGPT и решил исключить из своего рациона поваренную соль. 

В статье сказано, что мужчина попал в больницу и предположил, что его отравляет сосед. Он также рассказал о разных ограничениях в питании. Среди других симптомов была сильная жажда и паранойя. При этом пациент изначально не упоминал об употреблении каких-либо медикаментов.

Музей купил тиару скифского царя за 1,8 миллиона евро. Спустя семь лет оказалось, что это подделка, которую изготовил ювелир из Одессы
Криминал9 минут чтения

Через сутки после того, как мужчина попал в больницу, он попытался сбежать, после чего ему провели курс лечения психоза. Когда его состояние стабилизировалось, пациент рассказал врачам, что он прочитал о негативном влиянии на организм человека хлорида натрия, или поваренной соли. Мужчина обратился к ChatGPT, который посоветовал ему заменить соль на бромид натрия. 

После проведения дифференциального диагноза — в этом случае врачи исключают заболевания со схожей симптоматикой, чтобы определить наиболее вероятный диагноз, — медики диагностировали у пациента бромизм, или отравление бромом.

В статье бромизм описывался как «хорошо известный» синдром начала XX века, который, вероятно, был причиной почти каждой десятой госпитализации в психиатрическую клинику в то время, поскольку бром тогда использовался в качестве седативного средства.

Одна из крупнейших отраслей России тонет в убытках. Виноваты Китай, сильный рубль и жадность правительства
Экономика15 минут чтения

Авторы статьи отметили, что они не смогли точно выяснить дословно, какой совет получил их пациент. Однако когда они сами спросили у ChatGPT, на что можно заменить поваренную соль, в ответе нейросети упоминался бромид. При этом чат-бот не предупредил о возможном вреде здоровью и не спросил, для каких целей пользователи задали ему такой вопрос. «Так, по нашему мнению, поступил бы медицинский работник», — добавили авторы статьи.

Они предупредили, что ChatGPT и другие приложения на основе искусственного интеллекта могут «порождать научные неточности, лишаться возможности критически обсуждать результаты и в конечном итоге способствовать распространению дезинформации».

Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!

Самое читаемое

Она хотела лучше понять мужчин — но эксперимент закончился плачевно
00:01 13 января
История смерти Татьяны Страховой расколола общество и до сих пор не дает многим покоя
00:01 20 января
Супружеская пара похитила девушку, которая ехала автостопом. Они сделали ее рабыней на семь лет
00:01 7 января