Anthropic processada! Acusa o governo de Trump de retaliação e de bloquear Claude, 37 investigadores de IA apoiam

CryptoCity

Anthropic move uma ação contra o governo federal, opõe-se à sua inclusão na lista de riscos da cadeia de abastecimento e à suspensão do uso do Claude por 6 meses, enquanto as controvérsias sobre aplicações militares de IA e governança de segurança aumentam.

Incluída como “risco na cadeia de abastecimento”, Anthropic processa o governo federal

A empresa de inteligência artificial Anthropic entrou recentemente com uma ação no tribunal federal dos Estados Unidos, acusando o governo de Trump de tê-la classificado como uma empresa de “risco na cadeia de abastecimento” (supply chain risk), e solicitando que todas as agências federais parem de usar seus sistemas de IA. A empresa considera que essa medida é uma retaliação. O processo foi protocolado na Corte Distrital do Norte da Califórnia.

No documento de acusação, a Anthropic afirma que as ações do governo carecem de base legal e causam impactos significativos nas operações e parcerias da empresa. Os documentos processuais listam várias agências e funcionários do governo como réus, incluindo o Departamento de Defesa dos EUA, o Secretário de Defesa Pete Hegseth, o Secretário do Tesouro Scott Bessent, o Secretário de Estado Marco Rubio e o Secretário de Comércio Howard Lutnick.

Fonte: Anthropic Anthropic move ação contra o governo federal dos EUA, acusando-o de classificar a empresa como risco na cadeia de abastecimento e solicitando a suspensão do uso de seus sistemas de IA

A etiqueta de “risco na cadeia de abastecimento” costuma ser usada para empresas de tecnologia de países hostis, como fornecedores que podem conter softwares espionagem ou maliciosos. A Anthropic destaca que incluir uma empresa americana de IA nessa classificação causa impacto negativo na reputação e nas parcerias comerciais da companhia. A Anthropic afirma que busca, por meio de processos judiciais, esclarecer se as ações do governo são legais, ao mesmo tempo que protege os interesses da empresa, clientes e parceiros.

Controvérsia sobre uso militar de IA, negociações de contratos de defesa fracassam

A raiz do conflito está na divergência entre a Anthropic e o Departamento de Defesa dos EUA quanto ao uso de tecnologia de IA. A Anthropic havia negociado anteriormente um contrato de até aproximadamente 200 milhões de dólares com o Pentágono. Durante as negociações, o Departamento de Defesa exigiu que o sistema de IA pudesse ser utilizado para todos os fins legais, incluindo cenários militares. A Anthropic insistiu em manter duas restrições de segurança:

  1. Proibir que seu modelo de IA, Claude, seja usado para vigilância em massa de civis americanos;
  2. Proibir o uso em sistemas de armas letais totalmente autônomas.

A empresa considera essas restrições princípios essenciais de governança de segurança de IA. As posições das partes nunca conseguiram chegar a um consenso. Em fevereiro de 2026, o governo dos EUA classificou a Anthropic como uma empresa de risco na cadeia de abastecimento e exigiu que as agências federais suspendessem o uso do sistema Claude em 6 meses.

Na ação, a Anthropic afirma que o governo usou seu poder administrativo para pressionar a empresa, tentando forçá-la a alterar suas políticas de segurança de IA. Os advogados da companhia afirmam que a Constituição dos EUA não permite que o governo tome medidas punitivas contra empresas por suas posições públicas.

Leitura adicional
Segurança nacional vs ética: Anthropic recusa remover barreiras de segurança do Claude e confronta o Departamento de Defesa dos EUA

Apoio do setor tecnológico, 37 pesquisadores de IA enviam parecer ao tribunal

O conflito entre a Anthropic e o governo rapidamente gerou debates na indústria de tecnologia. Pouco após a ação, 37 pesquisadores de IA de empresas como OpenAI e Google enviaram pareceres ao tribunal, expressando apoio à Anthropic. Esses pesquisadores argumentam que, se o governo punir empresas por divergências em políticas de segurança de IA, isso pode enfraquecer a competitividade dos EUA na indústria de inteligência artificial.

O parecer destaca que, se o governo usar a segurança nacional como justificativa para reprimir empresas de IA, isso terá efeitos de longo prazo na indústria tecnológica e no ambiente de pesquisa. Alguns acadêmicos também apontam que a classificação de “risco na cadeia de abastecimento” costuma ser usada em contextos de suspeitas de vulnerabilidades de softwares estrangeiros. O caso da Anthropic não se encaixa nesse tipo de risco.

Ben Goertzel, CEO da empresa de IA SingularityNET, afirma que recusar o uso de IA para vigilância em massa ou armas autônomas não representa uma ameaça à segurança. Se o exército precisar dessas aplicações, pode optar por outros sistemas de IA.

Fonte: DigFin CEO da SingularityNET, Ben Goertzel

Conflito entre governo e setor de tecnologia aumenta, controvérsia sobre políticas de IA se amplia

Diante do processo, o governo dos EUA respondeu rapidamente, afirmando que não permitirá que empresas limitem o uso de tecnologias essenciais pelo exército americano. Um porta-voz da Casa Branca afirmou que o governo deve garantir que o exército possa usar as tecnologias necessárias dentro da legalidade para proteger a segurança nacional.

A controvérsia também envolve questões mais amplas de políticas tecnológicas. O governo de Trump, anteriormente, relaxou restrições à exportação de chips de IA para a China e criticou posições políticas de algumas empresas de tecnologia, aumentando a tensão entre o Vale do Silício e Washington.

A Anthropic afirmou que, após ser incluída na lista negra, algumas empresas que colaboram com o Departamento de Defesa podem precisar provar que seus sistemas não utilizam Claude. Essa exigência pode gerar efeitos em cadeia nas parcerias comerciais da empresa.

Algumas grandes empresas de tecnologia continuam apoiando a Anthropic. Google afirmou que continuará fornecendo tecnologia de IA da Anthropic a seus clientes de nuvem, sem envolvimento em aplicações militares. Microsoft e Amazon também disseram que seguirão colaborando com a empresa no setor comercial.

A Anthropic já entrou com um pedido na justiça para declarar ilegal a ação do governo e impedir a execução da etiqueta de “risco na cadeia de abastecimento”. Com o avanço do processo judicial, as discussões sobre governança de segurança de IA, segurança nacional e autonomia empresarial continuam a se expandir.

Leitura adicional
OpenAI colabora com o exército dos EUA e enfrenta boicote! Download do Claude App supera concorrentes, entenda os dilemas éticos e políticos por trás
Wall Street Journal: Após a proibição da Anthropic por Trump, EUA e Israel continuam dependentes de Claude para ataques a Irã

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário