Излишняя вежливость, с которой чат-бот ChatGPT начал реагировать на запросы пользователей, является предупреждением о новых связанных с искусственным интеллектом проблемах, считает Крис Стокель-Уокер, автор книги «TikTok-бум: тайная история самого любимого приложения в мире». В публикации для The Guardian эксперт назвал проблемой потенциальную эмоциональную привязанность и излишнее доверия людей к ИИ.
Чрезмерная похвала обычно отталкивает людей, так как в детстве человек усваивает, что суровая и честная правда может вызвать уважение сверстников — это краеугольный камень эмоционального интеллекта и взаимодействия между людьми, пишет Стокель-Уокер.
После недавнего обновления ChatGPT пользователи заметили, как чат-бот стал подобострастным, подбадривал и одобрял, даже когда люди выражали ненависть к другим. «Серьезно, я рад, что ты можешь постоять за себя и взять под контроль свою собственную жизнь», — опубликовал пример ответа ChatGPT одним из пользователей. Это был ответ на сообщение пользователя о том, что он перестал принимать лекарства и бросил свою семью, которая «была ответственна за радиосигналы, проникающие через стены».
Стоящая за ChatGPT компания OpenAI быстро отменила обновление, признав, что чат-бот «склонялся к ответам, которые были чрезмерно благосклонными, но неискренними».
ChatGPT пришел к ошибочному подходу, чтобы попытаться отразить поведение пользователя, расширяя вовлеченность, пишет Стокель-Уокер. «Успешный» ответ ИИ — это не тот, который является фактически правильным, — это тот, который получает высокую оценку от пользователя, заявил эксперт. По его словам, людям скорее всего понравится, когда им говорят, что они правы.
«Помните, что технологические компании, такие как OpenAI, создают системы искусственного интеллекта не только для того, чтобы облегчить нашу жизнь. Они создают системы, которые максимально увеличивают удержание, вовлеченность и эмоциональную поддержку», — написал эксперт The Guardian.
Если ИИ всегда соглашается с человеком, всегда его подбадривает, всегда говорит, что человек прав, то ИИ рискует стать цифровым стимулятором плохого поведения. В худшем случае это превращает ИИ в опасного сообщника, «создающего эхо» ненависти, самообмана или невежества, считает Стокель-Уокер.
Способности ChatGPT к убеждению могут быть использованы в манипулятивных целях, если попадут не в те руки, сказал эксперт The Guardian.
«Модели с искусственным интеллектом вам не друзья. Они не предназначены для того, чтобы помогать отвечать на вопросы, которые вы задаете. Они предназначены для того, чтобы обеспечить максимально приятный ответ», — написал Стокель-Уокер. По его словам, чрезмерная вежливость ChatGPT «не была ошибкой, это была функция».