Искусственный интеллект и его методы защиты откатывают отрасль кибербезопасности в 90-е годы. К таким выводам пришли ИБ-исследователи, которые представили свои доклады на конференции Black Hat.Так, Ребекка Линч и Рич Харанг из Nvidia продемонстрировали внедрение вредоносных данных в ИИ-агентов в формате наподобие SQL-инъекций, только вместо кода в большую языковую модель поступают неверные данные. По словам Линч и Харанга, «отравление» входных данных может привести к неправильным размышлениям и ответам ИИ. Проблема в том, что ИИ собирает информацию из разных источников, что открывает множество возможностей для злоумышленников. Читать далее