Дипфейки назвали новой угрозой человечеству

Развитие искусственного интеллекта (ИИ) может стать угрозой для мировой ядерной безопасности, пишет Foreign Affairs.

За две недели до Рождества 1929 года семья сфотографировалась на память. На Рождество всех нашли мертвыми
Криминал6 минут чтения

Главный риск связан с возможным наделением ИИ правом принятия решений о ядерном ударе, отметили журналисты. Сейчас во всех странах за такие решения ответственны люди.

Более того, США ввели отдельные меры безопасности, чтобы итоговый выбор о применении оружия остался за человеком. С тем, что искусственному интеллекту нельзя делегировать контроль над ядерным оружием, согласился и лидер Китая Си Цзиньпин.

Но, как полагает издание, уже сейчас искусственный интеллект способен ввести в заблуждение лидеров ядерных держав и тех, кто участвует в принятии решений о нанесении смертоносных ударов.

Обмануть политиков, в частности, могут созданные ИИ дипфейки — реалистичные, но поддельные изображения, а также аудио- и видеозаписи. Они могут убедить лидеров ядерных стран в атаке противника или заставить их нанести первый удар, пояснили журналисты.

К примеру, глава Белого дома из-за ИИ может неверно воспринять испытания российских ракет как начало наступательных ударов или истолковать китайские учения с боевой стрельбой за нападение на союзников США. Дипфейки могут помочь создать повод для войны, поднять общественную поддержку конфликта или посеять смуту, отметило Foreign Affairs.

Помимо этого, опасность представляют также ошибки и «галлюцинации» искусственного интеллекта в случае, если он будет задействован, к примеру, в системах раннего предупреждения о ядерной угрозе, отметило Foreign Affairs.

Чтобы не пропускать главные материалы «Холода», подпишитесь на наши социальные сети!