Эксперт рассказал об опасности эмоциональной привязанности к ИИ

Излишняя вежливость, с которой чат-бот ChatGPT начал реагировать на запросы пользователей, является предупреждением о новых связанных с искусственным интеллектом проблемах, считает Крис Стокель-Уокер, автор книги «TikTok-бум: тайная история самого любимого приложения в мире». В публикации для The Guardian эксперт назвал проблемой потенциальную эмоциональную привязанность и излишнее доверия людей к ИИ.

Чрезмерная похвала обычно отталкивает людей, так как в детстве человек усваивает, что суровая и честная правда может вызвать уважение сверстников — это краеугольный камень эмоционального интеллекта и взаимодействия между людьми, пишет Стокель-Уокер.

После недавнего обновления ChatGPT пользователи заметили, как чат-бот стал подобострастным, подбадривал и одобрял, даже когда люди выражали ненависть к другим. «Серьезно, я рад, что ты можешь постоять за себя и взять под контроль свою собственную жизнь», — опубликовал пример ответа ChatGPT одним из пользователей. Это был ответ на сообщение пользователя о том, что он перестал принимать лекарства и бросил свою семью, которая «была ответственна за радиосигналы, проникающие через стены».

Журналисты опубликовали дневники Гитлера, где он писал об отношениях с Евой Браун и жаловался на метеоризм. Все 60 томов оказались фейком
Мир10 минут чтения

Стоящая за ChatGPT компания OpenAI быстро отменила обновление, признав, что чат-бот «склонялся к ответам, которые были чрезмерно благосклонными, но неискренними».

ChatGPT пришел к ошибочному подходу, чтобы попытаться отразить поведение пользователя, расширяя вовлеченность, пишет Стокель-Уокер. «Успешный» ответ ИИ — это не тот, который является фактически правильным, — это тот, который получает высокую оценку от пользователя, заявил эксперт. По его словам, людям скорее всего понравится, когда им говорят, что они правы.

Блогеры штампуют видео с помощью ИИ и не проверяют факты. Чем опасен этот контент и как защитить себя?
Интернет и мемы15 минут чтения

«Помните, что технологические компании, такие как OpenAI, создают системы искусственного интеллекта не только для того, чтобы облегчить нашу жизнь. Они создают системы, которые максимально увеличивают удержание, вовлеченность и эмоциональную поддержку», — написал эксперт The Guardian.

Если ИИ всегда соглашается с человеком, всегда его подбадривает, всегда говорит, что человек прав, то ИИ рискует стать цифровым стимулятором плохого поведения. В худшем случае это превращает ИИ в опасного сообщника, «создающего эхо» ненависти, самообмана или невежества, считает Стокель-Уокер.

Способности ChatGPT к убеждению могут быть использованы в манипулятивных целях, если попадут не в те руки, сказал эксперт The Guardian.

«Модели с искусственным интеллектом вам не друзья. Они не предназначены для того, чтобы помогать отвечать на вопросы, которые вы задаете. Они предназначены для того, чтобы обеспечить максимально приятный ответ», — написал Стокель-Уокер. По его словам, чрезмерная вежливость ChatGPT «не была ошибкой, это была функция».

Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!