По данным ряда американских изданий, модель искусственного интеллекта (ИИ) Claude разработчика Anthropic была задействована в рамках операции "Эпическая ярость". По ту сторону Атлантики специалисты отрасли выступают против того, чтобы инструменты ИИ использовались для планирования операций по уничтожению людей без контроля человека. ИноСМИ теперь в MAX! Подписывайтесь на главное международное >>> В прошлую субботу, с 9:45 утра по тегеранскому времени, Исламскую республику атаковали многочисленные истребители, беспилотники и бомбардировщики вооруженных сил США и Израиля. Это послужило прелюдией к конфликту с неопределенным исходом. За первые 24 часа было поражено более тысячи целей. По информации The Washington Post, сотни из них идентифицировал некий Claude, предоставив сведения об их точном местонахождении и отсортировав в порядке важности. "Ущерб огромен". США оказались в щекотливой ситуации. Есть только один выход Этот столь эффективный Claude — не человек, а одна из моделей искусственного интеллекта (ИИ). Некоторое такие модели внедрены в наши повседневные гаджеты. Они могут давать ответы на банальные вопросы, начиная с времени приготовления птицы и советов о том, как лучше обустроить детскую младшего ребенка. Или подсказывать Генштабу, какое здание лучше разбомбить. По сообщениям нескольких СМИ,включая The Wall Street Journal и Reuters, американские военные ранее уже использовали эту модель ИИ разработки компании Anthropic для планирования операции, которая привела к силовому захвату президента Венесуэлы Николаса Мадуро в январе. Другая информация — у источников The Washington Post, они утверждают, что война в Иране стала первой крупной операцией, в которой Claude сыграл заметную роль. Разнообразные способы применения Как сообщается, американский ИИ не был единственным советчиком Пентагона. Вскоре после начала операции в ЦАХАЛ заявили, что работали с армией США "тысячи часов, чтобы создать как можно более ценный и обширный банк сведений о целях". В материале Financial Times рассказывается о том, как Израиль якобы на протяжении многих лет взламывал дорожные камеры Тегерана, чтобы иметь возможность точно определять привычки правящей верхушки иранского режима. Этот источник информации, наряду с сотнями других, как сообщается, способствовал успешному устранению аятоллы Али Хаменеи. Неудивительно,что обе армии не стали предоставлять подробных сведений о том, как конкретно применяется ИИ в их операциях на Ближнем Востоке. "ИИ можно использовать для обработки изображений: он вместо вас разбирается, что на них присутствует, и преобразует эту информацию в конкретные сведения, которые можно прогнать по базам данных или использовать в режиме реального времени. Такого рода модели могут использоваться пехотой, водителями транспортных средств, операторами беспилотников и пилотами, они отлично себя зарекомендовали", — объясняет Ален Филипович, научный сотрудник Института международных и стратегических отношений. "Есть генеративный ИИ, который нам хорошо известен и который экономит много времени, например, при составлении отчетов о заседаниях или при кратком пересказе содержимого документов, — продолжает Филипович.— Однако есть и семейство ИИ-моделей, которые объединяют в себе целую кучу источников информации различного происхождения: человеческой истории, электромагнитных данных, цифровой или графической природы. Они путем перекрестного сопоставления информации могут создавать интересные обобщения и распознавать слабые сигналы". Белый дом судорожно дергается: Америка оказалась не готова к войне с Ираном Достоверность не гарантирована… Хотя задействование ИИ в целях разведки предполагает, что окончательные решения будут принимать люди, способности электронного помощника, который, как известно, иногда может начать выдумывать небылицы, вызывают настороженность. Опрос, опубликованный израильско-палестинским новостным агентством +972, показал, что программа Lavender, используемая ЦАХАЛ для определения целей в секторе Газа, ошибалась в одной десятой случаев. "По данным из ряда источников, многие высокопоставленные офицеры израильской армии жаловались, что их отодвинули на второй план, отдавая предпочтение заключениям, полученным с использованием ИИ, — утверждает Ален Филипович. — По моему мнению, в этом случае в структуру принятия решений не были включены люди необходимого уровня компетенций и знаний". А что, если Claude и ему подобные смогут самостоятельно определять, кто подлежит физическому уничтожению? "Насколько нам известно, с автономными летальными системами они применяют исключительно языковые модели (ИИ)", — отметил Тоби Уолш, эксперт по регулированию применения вооружений с системами ИИ, в интервью подкасту Uncomfortable Conversations. Что не помешало Anthropic, компании-создателю модели ИИ Claude, заняться этой темой. В прошлую пятницу их отказ разрешить, чтобы их модель была использована для уничтожения людей без подтверждения со стороны человека, привел к скандалу и разрыву отношений с администрацией Трампа. Пентагон обратился к их конкурентам, компании Open AI, которая якобы добилась предоставления гарантий, ограничивающих применение их модели. В Иране удача отвернулась от Трампа ИИ-модели склонны поддерживать радикальные решения и готовы сразу "нажать на кнопку" Произошедшее быстро отразилось на репутации обеих компаний: OpenAI пережила волну отказов от платной подписки, а Anthropic, наоборот, приобрела новых подписчиков. Дискуссия продолжает набирать обороты: более 900 сотрудников Google (ответственные за работу над ИИ-моделью Gemini) и OpenAI подписали открытое письмо в поддержку Anthropic и призвали своих руководителей отказаться от использования ИИ для убийств без контроля со стороны человека. На самом деле, скорее всего, потребуются месяцы, чтобы произошел окончательный переход. Claude уже был полностью интегрирован в вооруженные силы США, где, по официальным данным, в мае прошлого года его использовали более 20 тысяч человек. По информации The Wall Street Journal, американские военные, продолжали использовать его и после официального запрета, озвученного Дональдом Трампом в связи с операцией против Ирана. Среди форматов применения, упомянутых газетой, "моделирование сценариев вооруженных столкновений". Если верить результатам предварительных исследований, проведенных научным сотрудником Королевского колледжа Лондона Кеннетом Пейном, возможно, лучше было бы поставить такое использование ИИ на паузу. Профессор международных отношений представил семь сценариев конфликта, вдохновленных примерами из холодной войны, трем вариантам ИИ, каждый из которых в рамках эксперимента осуществлял руководство той или иной страной. Claude проявил себя как расчетливый "ястреб", умело сочетающий угрозы и обман. ChatGPT OpenAI оставался пассивным... пока на него не начинали оказывать давление. Что касается Gemini (Google), то автор исследования охарактеризовал его как "сумасшедшего". Впрочем, судя по всему, он не один такой: в 95% сценариев военных конфликтов стороны в конечном итоге обращались к ядерному оружию.