Компания Anthropic, разработчик ИИ-модели Claude, подала иск против Министерства обороны США, чтобы предотвратить включение в «чёрный список» национальной безопасности. Anthropic утверждает, что это незаконно и нарушает свободу слова и надлежащую правовую процедуру. Конфликт начался после того, как компания отказалась снять ограничения с ИИ для массовой слежки или автономного оружия.
200 млн долларов — контракт США с Anthropic, который был отменён.
Это первый случай, когда ведущая ИИ-компания судится с правительством США из-за ограничений на использование ИИ в оборонных целях. Исход дела может повлиять на то, как другие ИИ-компании будут сотрудничать с государством и насколько они смогут отстаивать свои этические принципы.
Anthropic оспаривает в суде решение Пентагона, что ставит под вопрос баланс между национальной безопасностью и этикой ИИ.