Американское оборонное ведомство официально уведомило компанию Anthropic, разработчика популярной модели искусственного интеллекта Claude, о том, что ее продукция представляет опасность для цепочек поставок в Соединенных Штатах.
Как сообщает Bloomberg со ссылкой на высокопоставленного представителя Пентагона, соответствующее решение вступает в силу незамедлительно, и военным дано шесть месяцев на переход к другим поставщикам ИИ-решений. При этом, по информации агентства, технологии Anthropic все еще продолжают активно применяться в ходе текущей военной операции против Ирана, начатой Израилем и США 28 февраля.
Конфликт между разработчиком и военным ведомством назревал в течение продолжительного времени. Компания, которую возглавляет Дарио Амодеи, настаивала на соблюдении жестких этических ограничений. В частности, согласно позиции руководства, ее технологии не должны были использоваться для массовой слежки за американскими гражданами или в системах полностью автономного летального оружия. Пентагон же требовал права использовать любые доступные инструменты для выполнения боевых задач в рамках закона, невзирая на мнение разработчиков. Anthropic ранее обещала оспорить в суде любое определение рисков, которое угрожает ее работе.
Окончательную точку в споре поставил президент США Дональд Трамп. 27 февраля американский лидер официально запретил всем правительственным ведомствам использовать технологии Anthropic. Глава государства назвал разработчика «радикально левой компанией», которая, по его словам, пыталась диктовать Пентагону правила ведения деятельности.
На следующий день глава компании OpenAI Сэм Альтман, главный конкурент Anthropic, объявил о достижении соглашения с Пентагоном об использовании его моделей в секретной сети.



