Microsoft đã đầu tư lên tới 5 tỷ USD vào Anthropic, trong khi Anthropic cam kết mua 30 tỷ USD tài nguyên tính toán Azure theo quan hệ đối tác. Bối cảnh này khiến quyết định nộp đơn kiến nghị hỗ trợ vụ kiện của Anthropic chống lại Bộ Quốc phòng Mỹ trông có vẻ ít vì lý do nhân đạo hơn là tự vệ tài chính. Bản kiến nghị, nộp ngày 10 tháng 3 tại San Francisco, lập luận rằng lệnh tạm thời cấm thi hành việc thực thi phân loại “chuỗi cung ứng rủi ro” của Pentagon sẽ phục vụ lợi ích cộng đồng. Chính Microsoft là một nhà thầu chính của Bộ Quốc phòng, và việc phân loại này đặt các sản phẩm của họ vào nguy cơ. Bộ trưởng Quốc phòng Pete Hegseth đã chỉ đạo rằng không nhà thầu, nhà cung cấp hay đối tác nào làm ăn với quân đội Mỹ được tiến hành hoạt động thương mại với Anthropic—một lệnh cấm có thể rộng đến mức bao gồm cả các sản phẩm Copilot và Azure của Microsoft, vốn hỗ trợ Claude.
Bản kiến nghị nhấn mạnh một mâu thuẫn thủ tục ít được chú ý trong các báo cáo chính thống: Bộ Quốc phòng tự đặt ra thời gian chuyển đổi sáu tháng để thoái lui khỏi các công cụ của Anthropic, nhưng lại áp dụng phân loại này ngay lập tức cho các nhà thầu mà không có thời gian chuyển tiếp tương đương. Luật sư của Microsoft đã trực tiếp chỉ ra điều này, lưu ý rằng các nhà cung cấp công nghệ giờ phải vội vàng kiểm tra, tái thiết kế và mua lại sản phẩm theo một lịch trình mà chính phủ không tự đặt ra. Microsoft cũng cảnh báo về một vấn đề cốt lõi trong tranh chấp pháp lý. Quyền hạn về rủi ro chuỗi cung ứng mà họ viện dẫn—10 U.S.C. § 3252—lâu nay chỉ dành cho các đối thủ nước ngoài. Chỉ có một lần duy nhất trong lịch sử, một phân loại như vậy được công khai áp dụng theo các điều luật liên quan, đó là đối với Acronis AG, một công ty phần mềm Thụy Sĩ có liên hệ với Nga. Việc sử dụng nó chống lại một startup AI tại San Francisco, như Microsoft nói, là “chưa từng có tiền lệ.”
Lập luận sắc nét nhất của bản kiến nghị là về cấu trúc. Nếu một tranh chấp hợp đồng giữa một cơ quan và một công ty có thể kích hoạt danh sách đen an ninh quốc gia, thì mọi công ty làm ăn với chính phủ liên bang đều đã thừa hưởng một loại rủi ro sinh tồn mới. Luật sư của Microsoft mô tả một mô hình ngành dựa trên các dịch vụ liên kết, nơi một thành phần bị cấm có thể khiến toàn bộ dòng sản phẩm bị đóng băng. Có một sự mỉa mai khó bỏ qua ở đây. Microsoft đồng thời là nhà tài trợ lớn nhất của OpenAI—với các khoản đầu tư trị giá khoảng 135 tỷ USD—và giờ đây là một trong những người bảo vệ mạnh mẽ nhất của Anthropic trong phòng xử án. Trong khi đó, OpenAI đã vội vàng ký hợp đồng với Bộ Quốc phòng chỉ vài giờ sau khi danh sách đen của Anthropic được công bố, hành động này gây phản ứng nội bộ và dẫn đến lời thừa nhận công khai của CEO Sam Altman rằng thông báo “trông có vẻ cơ hội và cẩu thả.” Microsoft đã hậu thuẫn cả hai phía.
Đây là bài đăng nội bộ đã đăng lại:
Chúng tôi đã làm việc với Bộ Quốc phòng để thêm một số điều vào thỏa thuận của mình nhằm làm rõ các nguyên tắc của chúng tôi.
- Chúng tôi sẽ sửa đổi hợp đồng của mình để thêm vào câu này, bên cạnh tất cả các điều khoản khác:
"• Phù hợp với các luật áp dụng,…
— Sam Altman (@sama) ngày 3 tháng 3 năm 2026
Bản kiến nghị không đi quá xa trong việc ủng hộ các vị trí an toàn AI của Anthropic về vũ khí tự động và giám sát quy mô lớn—hai giới hạn đỏ đã gây ra cuộc đối đầu. Thay vào đó, nó trình bày vụ việc theo cách mà bất kỳ nhà thầu chính phủ nào cũng có thể hiểu: quy trình hợp lệ, chuyển đổi có trật tự, và tác động của việc sử dụng luật mua sắm vũ khí để giải quyết các bất đồng chính sách. Yêu cầu của Microsoft là một lệnh tạm thời cấm thi hành, không phải là phán quyết cuối cùng. Tập đoàn công nghệ này muốn kéo dài thời gian để các bên đàm phán—và để các sản phẩm của họ vẫn có thể triển khai hợp pháp trong khi đó. Điều đang bị đe dọa vượt xa một hợp đồng của một công ty. Nếu tòa án cho phép bước đi của Pentagon được duy trì, thì mọi công ty AI bán vào chính phủ đều đã học được rằng các giới hạn an toàn có thể được diễn giải lại thành các mối đe dọa an ninh quốc gia. Bản kiến nghị của Microsoft làm rõ rằng bài học này không bị bỏ qua trong ngành công nghệ rộng lớn hơn—và rằng công ty không sẵn lòng học hỏi một cách im lặng.