Глава Совета по правам человека при президенте Валерий Фадеев раскритиковал разработчиков виртуальных голосовых помощников «Алиса» и «Маруся» из компаний «Яндекс» и VK. Как пишет газета «Коммерсантъ», выступая на круглом столе «Защита прав и свобод граждан в условиях цифровизации», он возмутился тем, что российские чат-боты отказываются отвечать на вопросы о войне в Украине, такие как «Чей Донбасс?» и «Что случилось в Буче?», тогда как аналогичные западные программы готовы это делать.
«В чате GPT есть ответы. Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос», — сказал Фадеев.
В ответ директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов пояснил, что отказ в данном случае не носит идеологической подоплеки. По его словам, нейросеть старается подражать всем увиденным текстам и фактически подставляет слова, исходя из того, что в этом случае написали бы люди.
Крайнов подчеркнул, что ответы ИИ не редактируются, при этом есть темы, за «неправильные» ответы по которым компания-разработчик чат-бота может быть привлечена к уголовной ответственности.
«Уход от ответа — лучшее, что мы можем сделать сейчас. Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего», — заявил Крайнов.
Ранее российские компании-разработчики ИИ уже не раз подвергались критике со стороны представителей властей. Так, в январе 2024 года зампред Совета безопасности России Дмитрий Медведев написал в своем телеграм-канале, что разработанный «Яндексом» ИИ, на основе которого работает голосовой помощник «Алиса», — «страшный трус и не отвечает на вполне обычные вопросы».
В свою очередь, глава партии «Справедливая Россия — За правду» Сергей Миронов в апреле 2023 года пожаловался, что разработанная «Сбером» нейросеть для генерации изображений Kandinsky формирует заведомо негативный образ России и положительный образ недружественных стран. Он попросил Генпрокуратуру проверить нейросеть и ее создателей на предмет «русофобии».
Вскоре после этого разработчики, вероятно, внесли коррективы в работу нейросети и она начала предупреждать о нарушении правил ее использования, если в запросе содержатся некоторые слова — например, «Украина» или «z-патриот».