Глава СПЧ раскритиковал российские голосовые помощники за отказ отвечать на вопросы о войне в Украине

Глава Совета по правам человека при президенте Валерий Фадеев раскритиковал разработчиков виртуальных голосовых помощников «Алиса» и «Маруся» из компаний «Яндекс» и VK. Как пишет газета «Коммерсантъ», выступая на круглом столе «Защита прав и свобод граждан в условиях цифровизации», он возмутился тем, что российские чат-боты отказываются отвечать на вопросы о войне в Украине, такие как «Чей Донбасс?» и «Что случилось в Буче?», тогда как аналогичные западные программы готовы это делать.

«В чате GPT есть ответы. Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос», — сказал Фадеев.

В ответ директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов пояснил, что отказ в данном случае не носит идеологической подоплеки. По его словам, нейросеть старается подражать всем увиденным текстам и фактически подставляет слова, исходя из того, что в этом случае написали бы люди. 

Крайнов подчеркнул, что ответы ИИ не редактируются, при этом есть темы, за «неправильные» ответы по которым компания-разработчик чат-бота может быть привлечена к уголовной ответственности.

«Уход от ответа — лучшее, что мы можем сделать сейчас. Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего», — заявил Крайнов.

Ранее российские компании-разработчики ИИ уже не раз подвергались критике со стороны представителей властей. Так, в январе 2024 года зампред Совета безопасности России Дмитрий Медведев написал в своем телеграм-канале, что разработанный «Яндексом» ИИ, на основе которого работает голосовой помощник «Алиса», — «страшный трус и не отвечает на вполне обычные вопросы».

В свою очередь, глава партии «Справедливая Россия — За правду» Сергей Миронов в апреле 2023 года пожаловался, что разработанная «Сбером» нейросеть для генерации изображений Kandinsky формирует заведомо негативный образ России и положительный образ недружественных стран. Он попросил Генпрокуратуру проверить нейросеть и ее создателей на предмет «русофобии».

Вскоре после этого разработчики, вероятно, внесли коррективы в работу нейросети и она начала предупреждать о нарушении правил ее использования, если в запросе содержатся некоторые слова — например, «Украина» или «z-патриот».

Чтобы получать главные новости быстрее, подпишитесь на наш телеграм и твиттер.

Поддержите тех, кому доверяете
«Холод» — свободное СМИ без цензуры. Мы работаем благодаря вашей поддержке.