Anthropic обратилась в федеральные суды, чтобы оспорить широкую чернуюlists, введенную администрацией Дональда Трампа, утверждая, что правительство обозначило стартап в области ИИ как угрозу национальной безопасности в ответ на отказ ослабить меры безопасности. Иск, поданный в понедельник в Окружной суд Северной Калифорнии, оспаривает действия, предпринятые после того, как президент Трамп в феврале поручил федеральным агентствам прекратить использование технологий Anthropic. Это последовало за публичными комментариями генерального директора Anthropic Дарьо Амодзи, который заявил, что компания не будет выполнять запрос Пентагона на неограниченный доступ к Claude. В иске названы несколько федеральных агентств и высокопоставленных должностных лиц, включая министра обороны Пита Хегсета, министра казначейства Скота Бессента и министра иностранных дел Марко Рубио. «Конституция не позволяет правительству использовать свою огромную власть для наказания компании за её защищённую речь», — заявили юристы Anthropic в иске. «Ни один федеральный закон не санкционирует такие действия. Anthropic обращается к суду как к последней инстанции, чтобы защитить свои права и остановить незаконную кампанию ответных мер со стороны исполнительной власти.»
По указанию @POTUS, @USTreasury прекращает все использования продуктов Anthropic, включая платформу Claude, в нашем департаменте.
Народ США заслуживает уверенности в том, что все инструменты правительства служат общественным интересам, и при президенте Трампе… https://t.co/R7rF0ci5CY
— Министр казначейства Скот Бессент (@SecScottBessent) 2 марта 2026 г.
Спор начался в январе, когда представители Пентагона потребовали от подрядчиков по ИИ разрешить использование их систем для «любых законных целей», включая военные приложения. Хотя к тому времени Anthropic уже заключила контракт на 200 миллионов долларов с Министерством обороны, она отказалась снимать два ограничения, запрещающих использование Claude для массового внутреннего наблюдения за американцами или для полностью автономных летальных систем оружия. «Оспариваемые действия наносят немедленный и непоправимый ущерб Anthropic; другим, чья речь будет подавлена; тем, кто получает экономическую выгоду от продолжения деятельности компании; и глобальной общественности, которая заслуживает полноценного диалога и дебатов о том, что означает ИИ в войне и наблюдении», — заявили юристы Anthropic в иске. Для разработчиков ИИ, включая генерального директора SingularityNET Бена Гёрцеля, такое обозначение кажется странным и не соответствует обычному пониманию угрозы в цепочке поставок, которая обычно связана с программным обеспечением противников, содержащим скрытое вредоносное ПО, вирусы или шпионское ПО.
«Отказ Anthropic использовать своё программное обеспечение для автономного убийства или массового наблюдения не кажется представляющим такую угрозу», — сказал Гёрцель в интервью Decrypt. «Это просто означает, что если хотите использовать программное обеспечение для автономного убийства или массового наблюдения, покупайте чужое программное обеспечение. Поэтому логика превращения этого в угрозу цепочки поставок мне непонятна.» Гёрцель отметил, что различия между ведущими моделями ИИ могут ограничить практическое влияние этого решения. «В конце концов, Claude, ChatGPT и Gemini не так уж сильно отличаются друг от друга», — сказал он. «Пока одна из этих топ-систем используется правительством США, всё сводится к одному и тому же. А разведывательные агентства, под прикрытием секретных уровней доступа, будут использовать программное обеспечение как захотят.» Anthropic просит суд признать действия правительства незаконными и запретить применение обозначения «риска в цепочке поставок», которое мешает федеральным агентствам и подрядчикам Пентагона вести бизнес с компанией. «Нет веских оснований для оспариваемых действий», — говорится в иске. «Суд должен признать их незаконными и запретить ответчикам предпринимать любые шаги по их реализации.» Anthropic не сразу ответила на запросы о комментариях Decrypt. Даже после признания Anthropic угрозой национальной безопасности, Claude продолжает использоваться в текущих военных операциях, в том числе командованием Центральных сил США для анализа разведданных и определения целей во время ударов по Ирану.
Дженифер Хаддлестон, старший научный сотрудник по политике в области технологий в институте Cato, в заявлении, распространённом Decrypt, выразила обеспокоенность тем, что дело поднимает вопросы о конституционных правах при использовании национальной безопасности для оправдания действий правительства. «Хотя суды в прошлом были осторожны в вопросах о претензиях правительства на национальную безопасность, обстоятельства этого дела явно подчеркивают реальный риск для Первой поправки американцев, если основные причины таких претензий не будут тщательно проверены», — сказала она.