Развитие искусственного интеллекта может стать угрозой для ядерной безопасности: созданные ИИ дипфейки могут спровоцировать лидеров ядерных держав на удар, также есть риск ошибки, если ИИ наделят правом принимать решение об использовании ядерного оружия, сообщает журнал Foreign Affairs. В декабре главный экономист Азиатско-Тихоокеанского регионального бюро Программы развития ООН (UNDP) Филип Шеллекенс заявил, что применение искусственного интеллекта в военных целях может стать экзистенциальной угрозой и привести к массовым жертвам, отметив, что необходимо крайне ответственно подходить к его регулированию. "Быстрое распространение искусственного интеллекта усугубило угрозы для ядерной стабильности", - говорится в статье. Отмечается, что один из рисков связан с возможной передачей машинам полномочий принимать решения об использовании ядерного оружия. Как сообщает издание, ИИ позволяет проще создавать дипфейки - убедительно подделанные видео, изображения или аудиозаписи, с помощью которых распространяется ложная информация о людях или событиях, что также представляет скрытую угрозу для ядерной безопасности. Как предполагает издание, дипфейки могут использоваться, например, чтобы спровоцировать лидера ядерной державы нанести удар первым. А также дипфейки могут применяться в создании повода для войны, поднимать общественную поддержку конфликта или сеять смуту.