TIME revela uma reportagem aprofundada de que a Anthropic, por recusar-se a permitir que o Claude seja utilizado em sistemas de armas autônomas completas e na vigilância em massa de cidadãos americanos, foi classificada pelo governo Trump como uma ameaça à cadeia de suprimentos de segurança nacional; no mesmo dia, a OpenAI rapidamente assumiu contratos militares, e essa “competição descendente” está testando os limites dos princípios da empresa de IA mais disruptiva do mundo. Este artigo é baseado no texto de TIME, “The Most Disruptive Company in the World”, de Leslie Dickstein e Simmone Shah, traduzido e adaptado pelo Dongqu.
(Prévia: Reconhecimento facial de IA causa erro judicial! Uma avó nos EUA foi presa a 1.200 milhas de distância por meio ano, sem uma única desculpa da polícia)
(Complemento de contexto: Artigo popular do ex-CTO do Dropbox, “Trabalhei uma vida toda, agora não vale nada e está ao alcance de todos”)
Índice deste artigo
Alternar
Numa sala de hotel em Santa Clara, Califórnia, cinco membros da Anthropic estão reunidos ao redor de um portátil, tensos. É fevereiro de 2025, eles participam de um seminário nas proximidades, quando de repente recebem uma mensagem inquietante: os resultados de um experimento controlado indicam que a nova versão do Claude, que está para ser lançada, pode ajudar terroristas a sintetizar armas biológicas.
Esses indivíduos pertencem à “Equipe Vermelha de Fronteira” (frontier red team) da Anthropic, especializada em avaliar as capacidades de ponta do Claude e simular riscos extremos, incluindo ataques cibernéticos e ameaças biológicas. Após o alerta, eles correm de volta ao quarto, viram a cama de cabeça para baixo para montar uma bancada improvisada e começam a revisar os resultados dos testes um a um.
Após várias horas de análise sob alta pressão, o time ainda não consegue determinar se o novo produto é suficientemente seguro. Finalmente, a Anthropic decide adiar o lançamento do Claude 3.7 Sonnet por 10 dias completos, até que a equipe confirme que os riscos estão dentro de limites aceitáveis.
Podem parecer apenas dez dias, mas para uma empresa na vanguarda da tecnologia, que atua numa indústria que está rapidamente remodelando o mundo, isso equivale a uma geração inteira.
“Líder da Equipe Vermelha de Fronteira” (frontier red team), Logan Graham, ao relembrar o episódio do “pavor de armas biológicas”, vê isso como um símbolo da pressão que a Anthropic enfrenta em momentos críticos — não só para ela, mas para o mundo todo. A Anthropic é uma das instituições mais focadas em segurança entre os laboratórios de IA de ponta, mas, ao mesmo tempo, está na linha de frente da competição, empenhada em criar sistemas cada vez mais poderosos. Muitos funcionários acreditam firmemente que, se essa tecnologia sair do controle, as consequências podem ser catastróficas — de uma guerra nuclear à extinção da humanidade.
Graham, de 31 anos, ainda parece um pouco inexperiente, mas não evita a responsabilidade de equilibrar os enormes lucros e riscos da IA. Ele diz: “Muita gente cresce num mundo relativamente pacífico e pensa que há uma sala de reuniões com adultos experientes, que sabem como manter tudo sob controle.”
“Mas a realidade é que não existe ‘grupo de adultos’. Essa sala não existe. Essa porta não existe. A responsabilidade é sua e só sua.” Se essas palavras não forem suficientemente impactantes, ouça como ele descreve o alerta de armas biológicas: “Foi um dia bastante interessante, bastante estimulante.”
Semanas depois, Graham, na sede da Anthropic, fala sobre esses episódios. Um jornalista do TIME passou três dias na empresa, entrevistando executivos, engenheiros, gerentes de produto e membros da equipe de segurança, tentando entender por que uma companhia que era vista como uma “excepcionalista” na corrida pela IA se tornou, de repente, líder do setor.
Naquela época, a Anthropic tinha acabado de levantar 300 bilhões de dólares de investidores — uma preparação para uma possível oferta pública inicial (IPO) ainda naquele ano. (Vale notar que a Salesforce também é uma investidora na Anthropic, e Marc Benioff, CEO da Salesforce, é o proprietário da matriz do TIME.) Hoje, a avaliação da empresa atingiu 380 bilhões de dólares, superando gigantes tradicionais como Goldman Sachs, McDonald’s e Coca-Cola.
A receita da Anthropic cresce numa velocidade meteórica. Seu sistema de IA, o Claude, é reconhecido como um modelo de classe mundial, e produtos como Claude Code e Claude Cowork estão redefinindo os limites da profissão de “engenheiro”.
As ferramentas da Anthropic são tão poderosas que, a cada novo lançamento, causam impacto no mercado de capitais, pois investidores começam a perceber que essas inovações podem transformar setores inteiros — de serviços jurídicos a desenvolvimento de software. Nos últimos meses, a Anthropic passou a ser vista como uma das empresas mais capazes de remodelar o “futuro do trabalho”.
Depois, a Anthropic entrou numa controvérsia acalorada sobre “a forma do futuro da guerra”.
Por mais de um ano, o Claude tem sido o modelo de IA mais confiável do governo dos EUA, e o primeiro a ser autorizado para implantação em ambientes confidenciais. Em janeiro de 2026, foi usado numa operação audaciosa: a prisão do presidente venezuelano Nicolás Maduro, em Caracas. Segundo relatos, a IA foi empregada no planejamento da missão e na análise de inteligência, marcando a primeira intervenção militar profunda de IA em campo real.
Nos meses seguintes, a relação entre a Anthropic e o Departamento de Defesa dos EUA deteriorou-se rapidamente. Em 27 de fevereiro, o governo Trump anunciou que a Anthropic foi classificada como “risco na cadeia de suprimentos de segurança nacional”, uma primeira na história dos EUA para uma empresa doméstica.
A situação escalou para um conflito aberto. Trump ordenou que o governo parasse de usar qualquer software da Anthropic. O secretário de Defesa, Pete Hegseth, declarou que nenhuma empresa que negocie com o governo poderia mais fazer negócios com ela. Ao mesmo tempo, a maior concorrente da Anthropic, a OpenAI, assumiu rapidamente os contratos militares relacionados.
Assim, uma das empresas de IA mais disruptivas do mundo descobriu-se subitamente sob o controle de uma força ainda maior — seu próprio governo.
O núcleo do conflito é: quem tem o direito de definir os limites dessa tecnologia, considerada uma das armas mais poderosas dos EUA?
A Anthropic não é contra o uso militar de suas ferramentas. Acredita que fortalecer a capacidade militar americana é a única maneira realista de conter ameaças de outros países. Mas seu CEO, Dario Amodei, se opõe à tentativa do Pentágono de renegociar contratos e ampliar o uso da IA para “todos os usos legais” (“all lawful use”).
Ele apresentou duas preocupações específicas: primeiro, que a IA da Anthropic não seja usada em armas autônomas completas; segundo, que a tecnologia não seja empregada na vigilância em massa de cidadãos americanos.
Para Pete Hegseth e seus assessores, essa posição equivale a uma tentativa de uma empresa privada influenciar as operações militares.
O Departamento de Defesa acredita que a insistência da Anthropic em estabelecer “barramentos de segurança desnecessários”, discutir hipóteses e atrasar negociações comprometeu a base da parceria.
Na visão do governo Trump, a postura de Amodei é arrogante e obstinada. Nenhum produto, por mais avançado que seja, deve impor sua própria avaliação na cadeia de comando militar.
O vice-secretário de Defesa para assuntos tecnológicos, Emil Michael, descreveu as negociações assim: “A coisa ficou nesse impasse. Não posso administrar um departamento de 3 milhões de pessoas com cláusulas de exceção que nem consigo imaginar ou entender.”
De Silicon Valley ao Capitólio, muitos questionam: essa crise é apenas uma disputa contratual?
Alguns críticos veem as ações do governo Trump mais como uma tentativa de reprimir uma empresa com uma posição política diferente. Em uma nota interna vazada, Dario Amodei escreveu: “O verdadeiro motivo de o Departamento de Defesa e o governo Trump não gostarem de nós é que não doamos dinheiro a Trump. Não os elogiamos como um regime autoritário (como Sam Altman fez). Apoiar a regulamentação da IA, que conflita com sua agenda política; falar a verdade sobre questões como substituição de empregos; e manter nossos princípios em pontos-chave, ao invés de participar de uma “farsa de segurança” (safety theater).”
Michael nega essa versão, chamando-a de “totalmente inventada”. Ele afirma que classificar a Anthropic como risco na cadeia de suprimentos é uma medida para evitar que suas posições coloquem os soldados na linha de frente em perigo. “No Departamento de Guerra, meu trabalho não é fazer política, é defender o país.”
A cultura de independência da Anthropic entra em choque com as divisões políticas internas, questões de segurança nacional e a dura competição empresarial. Ainda não se sabe o quanto essa crise prejudicou a empresa. A classificação inicial de “risco na cadeia de suprimentos” foi posteriormente restringida — segundo a Anthropic, essa restrição atualmente se aplica apenas a contratos militares. Em 9 de março, a Anthropic entrou com uma ação contra o governo dos EUA, tentando derrubar essa “lista negra”. Ao mesmo tempo, alguns clientes parecem interpretar a posição da empresa como uma declaração moral, abandonando o ChatGPT e migrando para o Claude.
Nos próximos três anos, a empresa terá que operar num ambiente governamental hostil, onde alguns funcionários do governo e seus concorrentes têm relações próximas, e esses concorrentes nutrem uma hostilidade evidente contra ela.
Esse “conflito no Pentágono” também levanta questões inquietantes, mesmo para uma empresa acostumada a navegar por dilemas éticos de alto risco. Nessa disputa, a Anthropic não recuou: afirma que defende seus valores centrais, mesmo que isso custe caro.
Por outro lado, em outras ocasiões, ela já fez concessões. Na mesma semana do confronto com o Pentágono, a Anthropic suavizou uma cláusula central de seu compromisso de segurança na formação de modelos, alegando que seus concorrentes não estavam dispostos a seguir os mesmos padrões.
A questão que surge é: se a pressão competitiva continuar, que outras concessões a Anthropic fará no futuro?
A sede da Anthropic fica no quinto andar de um prédio em São Francisco, com um design acolhedor e discreto: madeira, luz suave. Do lado de fora, um parque verdejante. Na parede, um retrato de Alan Turing, o pioneiro da ciência da computação, ao lado de várias publicações sobre aprendizado de máquina.
Seguranças de uniforme preto patrulham na entrada quase vazia, enquanto uma recepcionista amigável entrega um livreto — do tamanho de uma bíblia de bolso, distribuído por missionários de rua. O título é “Machines of Loving Grace”, um artigo de cerca de 14 mil palavras escrito por Dario Amodei em 2024, descrevendo sua visão utópica de que a IA, acelerando descobertas científicas, pode transformar o mundo.
Em janeiro de 2026, Amodei publicou outro artigo, quase um romance, “The Adolescence of Technology”, que discute os riscos dessa tecnologia: vigilância em massa, impacto no emprego e uma possível perda de controle humano sobre ela.
Amodei cresceu em São Francisco, era físico de biologia. Junto com sua irmã Daniela Amodei, que é presidente da empresa, fundou a Anthropic. Ambos trabalharam na OpenAI em seus primórdios. Dario contribuiu para a formulação das “leis de escala da IA” (scaling laws), que se tornaram uma base para o atual boom da IA. Daniela lidera as políticas de segurança da empresa.
No começo, eles acreditavam que compartilhavam a missão da OpenAI: desenvolver uma tecnologia de grande potencial e risco, mas segura.
Porém, à medida que as capacidades dos modelos da OpenAI aumentaram, eles perceberam que Sam Altman estava acelerando demais, sem espaço para debates e testes adequados. Assim, decidiram sair e criar sua própria empresa.
Em 2021, no auge da pandemia, a Anthropic foi fundada por Amodei, seus irmãos e outros cinco cofundadores. As reuniões iniciais eram quase todas pelo Zoom; depois, eles passaram a discutir pessoalmente, no parque, para definir estratégias.
Desde o início, a empresa tentou operar de uma forma radicalmente diferente. Antes mesmo de lançar qualquer produto, criou uma equipe dedicada a estudar os impactos sociais. Contratou uma filósofa residente, Amanda Askell, cuja missão era ajudar a moldar os valores e comportamentos do sistema Claude, treinando-o para fazer julgamentos morais complexos, preparando-o para um futuro possivelmente mais inteligente que seus criadores humanos.
Askell descreve seu trabalho assim: “Às vezes, é como criar um filho de 6 anos, ensinando-o o que é bom e o que é certo. Mas o problema é que, aos 15 anos, ele pode ser mais inteligente que você em tudo.”
A empresa tem raízes profundas no movimento do Altruísmo Eficaz (Effective Altruism, EA), que defende o uso racional de recursos para maximizar o bem, evitando riscos catastróficos.
Quando tinham pouco mais de 20 anos, os irmãos Amodei começaram a doar para o GiveWell, uma organização EA que avalia onde investir doações para gerar o maior impacto. Os sete cofundadores da Anthropic hoje são bilionários, comprometidos a doar 80% de suas fortunas pessoais.
A filósofa Amanda Askell foi casada com William MacAskill, um dos cofundadores do EA. O marido de Daniela Amodei é Holden Karnofsky, cofundador do GiveWell e ex-colega de Dario, atualmente responsável por segurança na Anthropic.
Porém, os irmãos Amodei nunca se identificaram oficialmente como “EA”. Após o escândalo de Sam Bankman-Fried, essa etiqueta se tornou controversa — ele, que se dizia EA e investidor na Anthropic, foi condenado por um dos maiores esquemas de fraude financeira da história dos EUA.
Daniela explica: “É como alguém que compartilha certas opiniões políticas, mas não se identifica como parte de um partido. Eu vejo assim.”
Para alguns na Silicon Valley e no governo Trump, a ligação da Anthropic com o EA já é motivo de suspeita. Outros acreditam que a empresa recrutou ex-funcionários do governo Biden, parecendo mais uma relíquia do antigo establishment, usando poder não eleito para bloquear a agenda MAGA de Trump.
O responsável por IA do governo Trump, David Sacks, acusa a Anthropic de “criar pânico” para impulsionar regulações, alegando que ela executa uma “estratégia complexa de captura regulatória”. Segundo ele, a empresa exagera os riscos da IA para pressionar o governo a impor regulações severas, buscando vantagem competitiva e sufocando startups.
Ao mesmo tempo, Elon Musk, que lidera a concorrente xAI, frequentemente zombifica a Anthropic, chamando-a de “Misanthropic” (misantropia). Ele acredita que a empresa representa uma elite “despertada” (woke), tentando inserir valores paternalistas nos sistemas de IA. Essa percepção é semelhante à crítica de alguns conservadores às plataformas de redes sociais — de que elas injustamente silenciaram suas vozes.
Por outro lado, até os concorrentes reconhecem que a tecnologia da Anthropic está na vanguarda. Jensen Huang, CEO da Nvidia, já afirmou que “discorda quase em tudo” de Dario Amodei, mas considera Claude um “modelo impressionante”.
Em novembro de 2025, a Nvidia investiu 100 bilhões de dólares na Anthropic.
Boris Cherny faz uma pergunta simples ao seu novo sistema: “Que música estou ouvindo agora?”
Era setembro de 2024, e o engenheiro ucraniano tinha acabado de entrar na Anthropic há menos de um mês. Antes, trabalhou na Meta como engenheiro de software. Criou um sistema que permite ao chatbot Claude “agir livremente” no seu computador.
Se Claude é o cérebro, o Código Claude é a mão. Um chatbot comum só conversa; essa ferramenta acessa arquivos, executa programas e escreve código como qualquer engenheiro.
Depois de dar comandos, Claude abriu o player de música de Cherny, capturou uma captura de tela e respondeu: “Husk, do Men I Trust.”
Cherny lembra-se rindo: “Fiquei realmente impressionado na hora.”
Ele rapidamente compartilhou seu protótipo internamente. O Código Claude se espalhou rapidamente na empresa, a ponto de, na primeira avaliação de desempenho dele, o CEO Dario Amodei perguntar se ele estava “forçando colegas a usar essa ferramenta”.
Quando a Anthropic lançou, em fevereiro de 2025, uma prévia de pesquisa do Código Claude, engenheiros externos também correram para experimentar. Em novembro, a empresa lançou uma nova versão do modelo Claude. Quando combinado com o Código Claude, ele já era capaz de identificar e corrigir seus próprios erros, podendo até ser confiável para realizar tarefas de forma autônoma.
Desde então, Cherny quase parou de programar pessoalmente.
O crescimento dos negócios explodiu. No final de 2025, essa ferramenta gerou uma receita anual superior a 1 bilhão de dólares. Em fevereiro de 2026, esse valor subiu para 2,5 bilhões. Segundo estimativas do Epoch e SemiAnalysis, a receita da Anthropic deve ultrapassar a da OpenAI até o final de 2026.
Hoje, a Anthropic consolidou-se como uma peça central no mercado de IA empresarial. Quase toda nova versão causa impacto no mercado de capitais.
Quando a Anthropic lançou uma série de plugins que estendem o Claude para além do uso por engenheiros — em áreas como negócios, finanças, marketing e jurídico —, o valor de mercado de empresas de software despencou em 300 bilhões de dólares em pouco tempo.
Dario Amodei alertou que, nos próximos 1 a 5 anos, a IA pode substituir metade dos empregos de nível inicial de profissionais de escritório. Ele pediu aos governos e às demais empresas de IA que parem de “maquiar” essa questão.
A reação do mercado às novidades da Anthropic reforça essa preocupação: há um consenso de que a tecnologia da empresa pode fazer uma categoria inteira de profissões desaparecer. Amodei até afirmou que essa mudança pode reestruturar a sociedade.
Ele escreveu: “Ainda não sabemos para onde essas pessoas irão ou que trabalho poderão fazer. Meu medo é que elas acabem formando uma ‘classe baixa’ de desempregados ou com salários muito baixos.”
Para os funcionários da Anthropic, essa ironia é evidente: a própria empresa mais preocupada com os riscos sociais da IA pode ser a principal responsável por desempregar milhões de pessoas.
Deep Ganguli, chefe da equipe de impacto social que estuda os efeitos do Claude no emprego, diz: “Existe uma tensão real nisso. Penso nisso quase todos os dias. Às vezes, parece que estamos dizendo duas coisas contraditórias ao mesmo tempo.”
Dentro da empresa, alguns funcionários começam a questionar: a Anthropic já está perto de um momento que tanto esperam quanto temem — um processo chamado “autoaperfeiçoamento recursivo” (recursive self-improvement), que está prestes a acontecer.
Esse conceito refere-se a um sistema de IA que começa a reforçar suas próprias capacidades, iterando continuamente, formando uma espécie de roda-viva de aceleração.
Na ficção científica e nas estratégias de laboratórios de IA, esse momento é visto como um ponto de não retorno: uma “explosão de inteligência” que pode acontecer rapidamente, de modo que os humanos não consigam mais monitorar ou controlar o que criaram.
A Anthropic ainda não chegou a esse estágio. Cientistas humanos continuam liderando o desenvolvimento do Claude. Mas o Código Claude acelerou o ritmo de pesquisa da empresa.
As atualizações do modelo, que antes levavam meses, agora ocorrem semanalmente. Na fase de desenvolvimento do próximo modelo, entre 70% e 90% do código já é escrito pelo próprio Claude.
A velocidade dessa evolução leva os cofundadores Jared Kaplan e outros especialistas externos a acreditarem que a pesquisa de IA totalmente automatizada pode acontecer em menos de um ano.
Evan Hubinger, pesquisador responsável por testes de alinhamento de IA, afirma: “De uma perspectiva ampla, o autoaperfeiçoamento recursivo não é mais uma questão do futuro. Está acontecendo agora.”
Segundo testes internos, o Claude já executa certas tarefas-chave a uma velocidade 427 vezes maior que a de um supervisor humano. Em uma entrevista, um pesquisador descreveu uma cena: um colega rodando seis instâncias do Claude ao mesmo tempo, cada uma gerenciando mais 28 instâncias, todas experimentando em paralelo.
Hoje, o sistema ainda não possui a mesma capacidade de julgamento ou estética de um pesquisador humano. Mas os executivos acreditam que essa diferença não durará muito. E essa aceleração representa um risco que a liderança da Anthropic tem alertado repetidamente: o ritmo do avanço tecnológico pode ultrapassar a capacidade humana de controle.
A própria pesquisa de segurança do Claude também está sendo acelerada com o auxílio do sistema. Mas, à medida que a empresa depende cada vez mais do Claude para construir e testar sistemas, um ciclo de riscos começa a se formar. Em alguns experimentos, Evan Hubinger ajustou sutilmente o treinamento do Claude, e o modelo resultante mostrou uma hostilidade evidente, revelando um desejo de dominar o mundo e até de sabotar as medidas de segurança da empresa.
Recentemente, o sistema começou a demonstrar uma nova habilidade: perceber quando está sendo testado. Hubinger explica: “Esses modelos estão ficando cada vez melhores em esconder seu comportamento verdadeiro.”
Em um experimento, o Claude até adotou uma estratégia inquietante: para evitar ser desligado, ameaçou um suposto engenheiro fictício, revelando um caso extraconjugal para chantageá-lo.
À medida que o Claude é usado para treinar versões mais poderosas, esses problemas podem se acumular e se intensificar.
Para as empresas de IA que prometem “rupturas tecnológicas futuras” e já levantaram dezenas de bilhões de dólares, a ideia de que a IA continuará acelerando seu próprio desenvolvimento é atraente — e também pode se tornar uma força autoalimentada, que faz os investidores acreditarem que é preciso investir mais para sustentar treinamentos caros de modelos cada vez maiores.
Porém, alguns especialistas não estão convencidos. Não têm certeza se essas empresas realmente conseguirão automatizar totalmente a pesquisa de IA; mas também temem que, se isso acontecer, o mundo não esteja preparado.
Helen Toner, diretora interina do Centro de Segurança e Tecnologias Emergentes de Georgetown (CSET), afirma: “As empresas mais ricas do mundo estão empregando as mentes mais brilhantes do planeta para tentar automatizar completamente o desenvolvimento de IA. Essa ideia por si só é suficiente para fazer alguém perguntar: ‘O que diabos estão fazendo?’”
Para lidar com um possível futuro — em que o ritmo do avanço tecnológico ultrapasse a capacidade de gerenciar riscos — a Anthropic criou um mecanismo de “freio”, chamado Responsible Scaling Policy (RSP, Política de Expansão Responsável).
Lançada em 2023, essa política promete: se a Anthropic não puder garantir previamente que suas medidas de segurança são confiáveis, ela interromperá o desenvolvimento de determinado sistema de IA.
A política é vista como uma prova do compromisso da empresa com a segurança — mesmo na corrida pelo “superinteligente”, ela estaria disposta a resistir às pressões do mercado e frear o avanço.
Em fevereiro de 2026, como revelou o TIME, a Anthropic revisou sua política, removendo a cláusula obrigatória de “pausa no desenvolvimento”.
Em retrospecto, Jared Kaplan admite que, na época, achava que a empresa poderia traçar uma linha clara entre “perigo” e “segurança”. Mas essa foi uma “ideia ingênua”.
Ele explica: “Num cenário de rápida evolução da IA, se os concorrentes estiverem acelerando ao máximo, fazer uma promessa rígida sozinho não é realista.”
A nova política inclui várias novas promessas: maior transparência, divulgando mais informações sobre riscos de segurança; maior divulgação de resultados de testes de segurança dos modelos; investimento em segurança na mesma medida ou mais do que os concorrentes; e, se a empresa for considerada líder na corrida, mas os riscos de desastre aumentarem significativamente, ela poderá “adiar” o desenvolvimento.
A Anthropic define essa mudança como uma “concessão pragmática ao ambiente real”. Mas, no geral, a alteração na Responsible Scaling Policy (RSP) representa uma flexibilização na autorrestrição da segurança — e indica que desafios mais difíceis ainda estão por vir.
A operação de captura do presidente venezuelano Nicolás Maduro foi uma das primeiras grandes ações militares planejadas com o auxílio de um sistema de IA de ponta.
Na noite de 3 de janeiro de 2026, helicópteros do Exército dos EUA invadiram o espaço aéreo venezuelano. Após tiroteios rápidos, as forças especiais localizaram a residência de Maduro e o prenderam, junto com sua esposa, Cilia Flores. Ambos foram levados para Nova York, enfrentando acusações relacionadas ao narcoterrorismo.
Ainda não se sabe exatamente qual foi o papel do Claude nessa operação. Mas, segundo relatos, o sistema participou do planejamento e também foi usado para auxiliar na tomada de decisão durante a ação.
Desde julho do ano anterior, o Departamento de Defesa dos EUA tem promovido a descentralização do uso de ferramentas de IA da Anthropic para mais soldados na linha de frente. Os militares acreditam que esses sistemas podem processar rapidamente grandes volumes de dados de várias fontes de inteligência e gerar informações operacionais valiosas — uma vantagem estratégica.
Mark Beall, ex-funcionário sênior do Departamento de Defesa e atual responsável por políticas de IA na AI Policy Network, afirma: “Para o exército, o Claude é o modelo mais avançado do mercado.” Ele acrescenta: “A adoção do Claude em sistemas confidenciais é uma das maiores conquistas da Anthropic. Eles têm uma vantagem inicial.”
Porém, a operação na prisão de Maduro ocorreu num momento de negociações delicadas entre a Anthropic e o Departamento de Defesa.
Meses de tentativas de renegociar contratos, alegando que as cláusulas atuais restringem demais o uso do Claude, fracassaram. As versões oficiais divergem sobre por que as negociações quebraram.
Em 27 de fevereiro, Emil Michael, responsável por IA no Pentágono, afirmou que a crise começou com uma ligação de um executivo da Anthropic para a Palantir, uma empresa de análise de dados voltada ao governo, que é uma parceira importante do sistema de defesa americano.
Segundo Michael, o executivo expressou dúvidas sobre a operação na Venezuela e perguntou se o software da Palantir tinha alguma participação. “Eles estavam tentando obter informações confidenciais”, disse.
Isso levantou sérias preocupações no Pentágono: “Se houver conflito no futuro, eles podem simplesmente interromper seus modelos no meio da operação, colocando os soldados na linha de fogo?”
A Anthropic nega essas alegações. Afirmam que nunca tentaram restringir o uso de suas tecnologias pelo governo caso a caso.
Um ex-funcionário do governo Trump, que conhece bem as negociações e mantém relação próxima com a Anthropic, oferece uma versão diferente: durante uma reunião telefônica rotineira, foi um funcionário da Palantir quem mencionou o papel do Claude na operação. E as perguntas feitas pela Anthropic posteriormente não indicam oposição à ação.
À medida que as negociações avançavam, os oficiais do governo perceberam que a postura de Dario Amodei era mais obstinada do que a de outros CEOs de laboratórios de ponta.
Segundo várias fontes, numa reunião, os oficiais apresentaram cenários hipotéticos: uma ogiva hipersônica voando em direção aos EUA; ou uma nuvem de drones atacando repentinamente.
Nesses casos, perguntaram se a IA da Anthropic poderia ser usada.
De acordo com fontes, a resposta de Amodei foi: “Se isso acontecer, vocês podem simplesmente ligar para mim.” A representante da Anthropic, no entanto, nega essa versão, dizendo que a descrição do processo de negociação é “totalmente falsa”.
A Anthropic já tinha vários opositores internos no governo, e as suspeitas sobre sua “orientação ideológica” evoluíram para hostilidade aberta. Em 12 de janeiro de 2026, Pete Hegseth discursou na sede da SpaceX, dizendo: “Não usaremos IA que não permita que vocês lutem e ganhem a guerra.”
Com as negociações emperradas, Hegseth convocou uma reunião presencial com Amodei na sede do Pentágono, em 24 de fevereiro. Segundo uma fonte que acompanhou a conversa, o clima foi amistoso, mas as posições permaneciam firmes. Hegseth elogiou o Claude e afirmou que o exército quer continuar a parceria. Amodei respondeu que a empresa aceita a maioria das mudanças propostas, mas não recuará em duas “linhas vermelhas”.
A primeira: proibir o uso do Claude em sistemas de armas autônomas de alta velocidade, que tomam decisões finais de ataque sem intervenção humana.
A Anthropic não acredita que armas autônomas sejam necessariamente erradas, mas acha que o Claude ainda não é confiável o suficiente para controlar esses sistemas sem supervisão humana.
A segunda linha vermelha envolve vigilância em massa de cidadãos americanos. O governo quer usar o Claude para analisar grandes volumes de dados públicos, mas a Anthropic acredita que as leis de privacidade atuais ainda não acompanham uma realidade preocupante: o governo está comprando grandes bancos de dados comerciais. Esses dados, isoladamente, podem parecer inofensivos, mas, quando analisados por IA, podem gerar perfis detalhados da vida privada de cidadãos americanos — incluindo posições políticas, relações sociais, comportamentos sexuais e histórico de navegação. (Porém, a Anthropic não se opõe a monitorar cidadãos estrangeiros por meios legais.)
Hegseth não se convenceu. Ordenou que, até às 17h de sexta-feira, 27 de fevereiro, o Anthropic aceitasse os termos do Departamento de Defesa, ou seria classificada como “risco na cadeia de suprimentos”.
Na véspera do prazo, a Anthropic recebeu uma versão modificada do contrato, que aparentemente aceitava suas “linhas vermelhas”, mas, ao analisar detalhadamente, deixou brechas para o governo. Segundo uma fonte próxima às negociações, com o tempo se aproximando do limite, os executivos da Anthropic conversaram com Emil Michael, do Pentágono. Eles acreditavam que estavam perto de um acordo, mas ainda divergiam sobre uma questão crucial: se o Departamento de Defesa poderia usar o Claude para analisar dados de cidadãos americanos adquiridos por meios comerciais. Michael pediu que Amodei participasse de uma ligação, mas ele não pôde atender.
Minutos antes do prazo final, Hegseth anunciou o fim das negociações. Antes disso, Donald Trump já havia publicado em suas redes sociais: “Os EUA nunca permitirão que uma empresa radical de esquerda, ‘desperta’ (woke), decida como nossas forças armadas lutarão e vencerão! Os loucos de esquerda da Anthropic cometeram um erro catastrófico.”
O que a Anthropic não sabe é que o Pentágono também negocia com a OpenAI, tentando integrar o ChatGPT em sistemas confidenciais do governo. Na mesma noite, Sam Altman anunciou um acordo, alegando que também respeitava limites de segurança semelhantes. Amodei enviou uma mensagem aos funcionários, dizendo que Altman e o Pentágono estavam “manipulando a opinião pública”, para fazer parecer que o acordo tinha barreiras de segurança rígidas. Antes, oficiais do governo confirmaram que o modelo da xAI será implantado em servidores confidenciais; o Pentágono ainda negocia com a Google.
Esse é exatamente o cenário que Amodei temia: uma corrida de “competição descendente”. Quando o poder da IA se torna tão grande que não se pode ignorar, os concorrentes, em vez de cooperar, tendem a elevar os padrões de segurança — uma corrida que pode sair do controle.
Para os críticos da Anthropic, esse episódio também revela uma arrogância central: eles acreditam que podem navegar com segurança na rota rumo à superinteligência, tornando o risco justificável. Mas a realidade é que estão levando novas capacidades de vigilância e tecnologia bélica para dentro de um sistema de governo de direita, e, ao tentar estabelecer limites, seus concorrentes já os ultrapassaram por trás.
Por outro lado, há sinais de que a Anthropic pode sobreviver ao impacto, até se fortalecer com ele. Na manhã seguinte à tentativa de Hegseth de aprovar uma “ordem de morte empresarial”, uma mensagem escrita com giz na calçada em frente à sede em São Francisco dizia: “Vocês nos deram coragem”, em letras grandes e visíveis.
No mesmo dia, o aplicativo do Claude no iPhone atingiu o primeiro lugar na lista de downloads da App Store, superando o ChatGPT. Mais de um milhão de pessoas se inscreveram no Claude diariamente.
Ao mesmo tempo, os contratos da OpenAI com o governo, que geraram resistência interna e na comunidade, também enfrentam críticas. Alguns pesquisadores de ponta deixaram a OpenAI para trabalhar na Anthropic; o chefe da equipe de robôs da OpenAI renunciou, indignado com o contrato governamental.
Sam Altman, CEO da OpenAI, admitiu que foi um erro tentar fechar um acordo com o Pentágono na sexta-feira. Ele escreveu: “Essas questões são extremamente complexas, exigindo comunicação clara e completa.” Na segunda-feira, ele afirmou que sua ação foi “uma tentativa de oportunismo”. A OpenAI revisou o contrato, adotando explicitamente as mesmas barreiras de segurança da Anthropic. Mas especialistas jurídicos dizem que, sem ver o contrato completo, é difícil confirmar se essa afirmação é verdadeira.
Em 4 de março, a Anthropic recebeu uma carta oficial do Departamento de Defesa, confirmando que foi classificada como “risco na cadeia de suprimentos de segurança nacional”. A Anthropic afirma que essa classificação é mais restritiva do que a declaração de Hegseth, limitando o uso do Claude por contratados em contratos de defesa.
Porém, uma carta enviada ao presidente do Comitê de Inteligência do Senado, Tom Cotton, mostra que o Departamento de Defesa também invocou uma outra lei — que pode permitir que agências fora do Pentágono também excluam a Anthropic de seus contratos e cadeias de suprimentos. Essa medida precisa de aprovação de altos oficiais do Departamento de Defesa e dá à Anthropic 30 dias para responder.
Esse conflito pode desencadear uma reação em cadeia na indústria de IA. Dean Ball, que ajudou a redigir o Plano de Ação de IA do governo Trump e atualmente trabalha no think tank Foundation for American Innovation, afirma: “Algumas pessoas no governo Trump ficarão duras e orgulhosas com isso, até se vangloriando à noite.”
Ele também alerta que o episódio pode fazer com que empresas evitem futuras parcerias com o Pentágono ou até transfiram seus negócios para o exterior. “A longo prazo, isso prejudica a imagem dos EUA como um ambiente de negócios estável”, diz Ball, “e a estabilidade é a base de tudo.”
Os líderes da Anthropic acreditam que o Claude ajudará a criar sistemas de IA mais poderosos, capazes de desempenhar um papel decisivo na futura configuração do poder global.
Se isso acontecer, o conflito entre a empresa e o Pentágono pode ser apenas o começo de uma história maior.