Глава СПЧ раскритиковал российские голосовые помощники за отказ отвечать на вопросы о войне в Украине

Глава Совета по правам человека при президенте Валерий Фадеев раскритиковал разработчиков виртуальных голосовых помощников «Алиса» и «Маруся» из компаний «Яндекс» и VK. Как пишет газета «Коммерсантъ», выступая на круглом столе «Защита прав и свобод граждан в условиях цифровизации», он возмутился тем, что российские чат-боты отказываются отвечать на вопросы о войне в Украине, такие как «Чей Донбасс?» и «Что случилось в Буче?», тогда как аналогичные западные программы готовы это делать.

«В чате GPT есть ответы. Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос», — сказал Фадеев.

В ответ директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов пояснил, что отказ в данном случае не носит идеологической подоплеки. По его словам, нейросеть старается подражать всем увиденным текстам и фактически подставляет слова, исходя из того, что в этом случае написали бы люди. 

Крайнов подчеркнул, что ответы ИИ не редактируются, при этом есть темы, за «неправильные» ответы по которым компания-разработчик чат-бота может быть привлечена к уголовной ответственности.

«Уход от ответа — лучшее, что мы можем сделать сейчас. Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего», — заявил Крайнов.

Ранее российские компании-разработчики ИИ уже не раз подвергались критике со стороны представителей властей. Так, в январе 2024 года зампред Совета безопасности России Дмитрий Медведев написал в своем телеграм-канале, что разработанный «Яндексом» ИИ, на основе которого работает голосовой помощник «Алиса», — «страшный трус и не отвечает на вполне обычные вопросы».

В свою очередь, глава партии «Справедливая Россия — За правду» Сергей Миронов в апреле 2023 года пожаловался, что разработанная «Сбером» нейросеть для генерации изображений Kandinsky формирует заведомо негативный образ России и положительный образ недружественных стран. Он попросил Генпрокуратуру проверить нейросеть и ее создателей на предмет «русофобии».

Вскоре после этого разработчики, вероятно, внесли коррективы в работу нейросети и она начала предупреждать о нарушении правил ее использования, если в запросе содержатся некоторые слова — например, «Украина» или «z-патриот».

Зинаида Пронченко — о фильме-победителе и других итогах 77-го Каннского кинофестиваля
Общество5 минут чтения
По его словам, люди стали лизать яйца ради компенсации. Теперь он считает идею «идиотской»
Общество4 минуты чтения
Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!