Ministros das Finanças, banqueiros centrais e executivos financeiros sêniores estão cada vez mais focados nos potenciais riscos apresentados pelo modelo Claude Mythos da Anthropic, diante do receio de que ele possa expor fraquezas críticas na infraestrutura financeira global.
Resumo
O modelo já motivou discussões em alto nível e reuniões em estilo de emergência após testes iniciais terem revelado vulnerabilidades em sistemas operacionais importantes e em aplicações amplamente usadas. Autoridades e especialistas do setor dizem que o sistema pode ter uma capacidade “sem precedentes” para detectar e explorar falhas de cibersegurança, embora alguns alertem que suas capacidades completas ainda não sejam totalmente compreendidas.
O ministro das Finanças do Canadá, François-Philippe Champagne, disse que o tema dominou as conversas durante os encontros desta semana do Fundo Monetário Internacional em Washington.
“Certamente é sério o suficiente para merecer a atenção de todos os ministros das Finanças”, disse ele, acrescentando que, diferentemente de riscos físicos, o desafio com a IA é “o desconhecido, desconhecido”.
Ele destacou a necessidade de salvaguardas, dizendo que as autoridades devem garantir “que tenhamos processos em vigor para assegurar a resiliência dos nossos sistemas financeiros”.
Grandes bancos e agências governamentais estão agora recebendo acesso antecipado ao Mythos para avaliar vulnerabilidades antes de qualquer implantação mais ampla.
C. S. Venkatakrishnan, diretor executivo da Barclays, disse que as preocupações são significativas o bastante para exigir atenção imediata.
“É sério o suficiente para que as pessoas tenham que se preocupar”, disse ele. “Nós precisamos entender melhor isso, e precisamos entender as vulnerabilidades que estão sendo expostas e corrigi-las rapidamente.”
Ele acrescentou que a situação reflete um sistema financeiro mais conectado, no qual riscos e oportunidades estão cada vez mais entrelaçados.
A Anthropic indicou que o Mythos já descobriu múltiplas falhas em sistemas operacionais, plataformas financeiras e navegadores da web. Em resposta, o acesso foi restringido a um pequeno grupo de instituições, incluindo grandes empresas de tecnologia e bancos sistemicamente importantes, permitindo que fortaleçam as defesas antes da exposição mais ampla.
Autoridades nos Estados Unidos tomaram medidas semelhantes. O Departamento do Tesouro incentivou bancos líderes a implantar o modelo internamente para identificar fragilidades, ao mesmo tempo em que explora maneiras de disponibilizar uma versão controlada para agências federais. Um memorando do Escritório de Gestão e Orçamento da Casa Branca traçou planos para introduzir salvaguardas antes de qualquer acesso desse tipo ser concedido.
Andrew Bailey, governador do Banco da Inglaterra, disse que as implicações para o cibercrime precisam ser levadas a sério.
“Estamos tendo que olhar com muita atenção agora para o que esse mais recente desenvolvimento em IA poderia significar para o risco de crime cibernético”, disse ele, alertando que essas ferramentas poderiam tornar mais fácil para “agentes mal-intencionados” identificar e explorar vulnerabilidades do sistema.
Autoridades sêniores dos EUA, incluindo Scott Bessent e Jerome Powell, já reuniram executivos de Wall Street para tratar dos riscos. Segundo relatos, os participantes incluíram líderes de grandes bancos como Goldman Sachs, Bank of America, Citigroup e Morgan Stanley, destacando a importância sistêmica do tema.
Vozes do setor sugerem que as preocupações talvez não se limitem à Anthropic. Fontes indicam que outra empresa de IA dos EUA poderia lançar um modelo igualmente capaz sem salvaguardas comparáveis.
James Wise, da Balderton Capital, descreveu o Mythos como “o primeiro de muitos outros modelos mais poderosos” capazes de expor vulnerabilidades do sistema. Sua unidade de IA Soberana está investindo em empresas voltadas para segurança em IA, acrescentando: “Esperamos que os modelos que expõem vulnerabilidades sejam também os modelos que vão corrigi-las.”
O Mythos faz parte da família de modelos Claude da Anthropic, um sistema concorrente às ofertas da OpenAI e do Google. Diferentemente de lançamentos anteriores, a empresa restringiu o acesso devido a preocupações de que a ferramenta possa ser usada indevidamente para descobrir falhas sensíveis ou invadir sistemas protegidos.
Testes internos levantaram alarmes depois que o modelo identificou bugs críticos que normalmente exigiriam hackers altamente qualificados para descobrir. Algumas vulnerabilidades, segundo relatos, datam de décadas, destacando lacunas que não haviam sido detectadas por sistemas tradicionais de segurança.
As preocupações também transbordaram para disputas de política. O Pentágono designou recentemente a Anthropic como um possível risco de cadeia de suprimentos — um movimento normalmente reservado a adversários estrangeiros. A empresa conseguiu contestar com êxito uma proibição proposta em tribunal, argumentando que isso resultaria em perdas financeiras significativas.
No âmbito dos círculos de segurança nacional, o Mythos introduziu uma nova incerteza sobre como as ameaças cibernéticas são avaliadas. Um oficial descreveu o impacto como comparável a equipar um hacker comum com ferramentas semelhantes às usadas por operadores de elite.
Apesar dos riscos, as autoridades continuam a interagir com a Anthropic. Agências federais estão se preparando para um possível acesso controlado, enquanto reguladores e instituições financeiras correm para entender e endereçar as vulnerabilidades que o modelo já começou a revelar.