Los ministros de Finanzas, los banqueros centrales y los ejecutivos financieros de mayor rango están cada vez más centrados en los riesgos potenciales que plantea el modelo Mythos de Anthropic, en medio de temores de que pueda revelar debilidades críticas en la infraestructura financiera global.
Resumen
El modelo ya ha provocado conversaciones de alto nivel y reuniones de estilo de emergencia después de que las pruebas iniciales revelaran vulnerabilidades en los principales sistemas operativos y aplicaciones de uso generalizado. Funcionarios y expertos de la industria afirman que el sistema podría tener una capacidad “sin precedentes” para detectar y explotar fallas de ciberseguridad, aunque algunos advierten que aún no se comprenden completamente sus capacidades completas.
El ministro de Finanzas canadiense, François-Philippe Champagne, dijo que el tema dominó las conversaciones durante las reuniones de esta semana del Fondo Monetario Internacional en Washington.
“Ciertamente es lo suficientemente serio como para merecer la atención de todos los ministros de Finanzas”, dijo, añadiendo que, a diferencia de los riesgos físicos, el desafío con la IA es “lo desconocido, lo desconocido”.
Subrayó la necesidad de salvaguardas, diciendo que las autoridades deben asegurarse de que “tenemos un proceso implementado para garantizar la resiliencia de nuestros sistemas financieros”.
Los principales bancos y agencias gubernamentales ahora están recibiendo acceso anticipado a Mythos para evaluar vulnerabilidades antes de cualquier despliegue más amplio.
C. S. Venkatakrishnan, director ejecutivo de Barclays, dijo que las preocupaciones son lo bastante significativas como para exigir una atención inmediata.
“Es lo suficientemente serio como para que la gente tenga que preocuparse”, dijo. “Tenemos que entenderlo mejor, y tenemos que entender las vulnerabilidades que se están exponiendo y solucionarlas rápidamente”.
Agregó que la situación refleja un sistema financiero más interconectado, donde los riesgos y las oportunidades se entrelazan cada vez más.
Anthropic ha indicado que Mythos ya ha descubierto múltiples fallas en sistemas operativos, plataformas financieras y navegadores web. En respuesta, el acceso se ha restringido a un pequeño grupo de instituciones, incluidas grandes empresas tecnológicas y bancos sistémicamente importantes, permitiéndoles fortalecer las defensas antes de una exposición más amplia.
Las autoridades en Estados Unidos han tomado medidas similares. El Departamento del Tesoro ha alentado a los principales bancos a desplegar el modelo internamente para identificar debilidades, al tiempo que explora formas de poner una versión controlada a disposición de agencias federales. Un memorando de la Oficina de Presupuesto y Gestión de la Casa Blanca describió planes para introducir salvaguardas antes de que se conceda cualquier acceso de ese tipo.
Andrew Bailey, gobernador del Banco de Inglaterra, dijo que las implicaciones para el crimen cibernético deben tomarse en serio.
“Ahora tenemos que mirar con mucho cuidado qué podría significar este último desarrollo de IA para el riesgo de crimen cibernético”, dijo, advirtiendo que estas herramientas podrían facilitar que “los malos actores” identifiquen y exploten vulnerabilidades del sistema.
Altos funcionarios de Estados Unidos, incluidos Scott Bessent y Jerome Powell, ya se han reunido con ejecutivos de Wall Street para abordar los riesgos. Según se informa, los asistentes incluyeron líderes de grandes bancos como Goldman Sachs, Bank of America, Citigroup y Morgan Stanley, lo que subraya la importancia sistémica del tema.
Voces de la industria sugieren que las preocupaciones podrían no limitarse a Anthropic. Las fuentes indican que otra empresa estadounidense de IA podría liberar un modelo igualmente capaz sin salvaguardas comparables.
James Wise, de Balderton Capital, describió Mythos como “el primero de lo que serán muchos más modelos poderosos”, capaces de exponer vulnerabilidades del sistema. Su unidad de Sovereign AI está invirtiendo en empresas centradas en seguridad de IA, añadiendo: “Esperamos que los modelos que exponen vulnerabilidades sean también los modelos que las arreglen”.
Mythos es parte de la familia de modelos Claude de Anthropic, un sistema competidor con las ofertas de OpenAI y Google. A diferencia de lanzamientos anteriores, la empresa ha restringido el acceso por preocupaciones de que la herramienta pudiera usarse indebidamente para descubrir fallas sensibles o irrumpir en sistemas protegidos.
Las pruebas internas encendieron las alarmas después de que el modelo identificara fallos críticos que normalmente requerirían que hackers altamente capacitados los descubrieran. Algunas vulnerabilidades, según se informa, datan de décadas atrás, lo que pone de relieve brechas que no habían sido detectadas por sistemas de seguridad tradicionales.
Las preocupaciones también se han extendido a disputas de política. El Pentágono designó recientemente a Anthropic como un riesgo potencial de cadena de suministro, una medida que normalmente se reserva para adversarios extranjeros. La compañía impugnó con éxito una prohibición propuesta en los tribunales, argumentando que daría lugar a pérdidas financieras significativas.
Dentro de los círculos de seguridad nacional, Mythos ha introducido una nueva incertidumbre sobre cómo se evalúan las amenazas cibernéticas. Un funcionario describió el impacto como comparable a equipar a un hacker ordinario con herramientas similares a las que usan operadores de élite.
A pesar de los riesgos, las autoridades continúan interactuando con Anthropic. Las agencias federales se están preparando para un posible acceso controlado, mientras que los reguladores y las instituciones financieras se apresuran a entender y abordar las vulnerabilidades que el modelo ya ha comenzado a revelar.