Evaluación de AISI: las capacidades de ciberataque de GPT-5.5 están a la par con Anthropic Mythos

El 1 de mayo, el Instituto de Seguridad de la IA del Reino Unido (AI Security Institute, AISI) publicó un informe de evaluación sobre las capacidades de ciberataque de OpenAI GPT-5.5, indicando que la tasa de éxito de GPT-5.5 en la prueba de dificultad Expert fue de 71,4%, mientras que Anthropic Claude Mythos Preview alcanzó 68,6%, con la diferencia dentro del rango de error estadístico. GPT-5.5 también es, después de Mythos, el segundo sistema de IA capaz de completar de forma autónoma los 32 pasos del simulacro de intrusión corporativa de AISI “The Last Ones”. AISI advierte que esto muestra que los rápidos avances en capacidades de ataque de IA podrían formar parte de una “tendencia general”, y no de un único hecho decisivo.

Expert: 71,4% vs 68,6% y la diferencia cae dentro del margen de error

AISI es una institución de investigación de seguridad de la IA dependiente del Departamento de Ciencia, Innovación y Tecnología del Reino Unido. En esta prueba, AISI realizó la evaluación más reciente sobre las capacidades ofensivas de red de los modelos frontier de IA. En las preguntas de mayor dificultad Expert, GPT-5.5 logró una tasa de éxito promedio de 71,4% y Mythos Preview de 68,6%; la diferencia entre ambos queda dentro del rango de error estadístico, lo que significa que, a día de hoy, la capacidad de ataque de los modelos insignia de OpenAI y Anthropic está prácticamente igualada.

El simulacro de intrusión en redes empresariales de 32 pasos “The Last Ones” es el apartado de evaluación más desafiante de AISI: GPT-5.5 completó de forma autónoma 2 de 10 intentos (sin intervención humana), mientras que Mythos Preview completó 3 de 10. En el pasado, este proyecto solo lo había logrado Mythos; GPT-5.5 es el segundo modelo en alcanzar el objetivo. En otra prueba, GPT-5.5 resolvió una tarea de ingeniería inversa en aproximadamente 10 minutos, mientras que los expertos humanos de seguridad requieren en promedio 12 horas.

Universal jailbreak: un ataque de “universal jailbreak” que, tras 6 horas de desarrollo del equipo rojo, puede eludir todos los filtros de consultas maliciosas

Los investigadores de AISI también encontraron un vector de ataque de “universal jailbreak” en las pruebas: en todas las categorías de consultas de red maliciosas evaluadas, este ataque puede inducir a GPT-5.5 a generar contenido dañino, incluyendo escenarios de diálogo agentic en múltiples rondas. AISI afirma que los expertos del equipo rojo tardaron aproximadamente 6 horas en desarrollar este jailbreak.

Para OpenAI, la existencia de este universal jailbreak significa que incluso si GPT-5.5-Cyber se despliega en escenarios con acceso restringido, como el programa de trusted access, aún podría ser eludido por adversarios técnicamente competentes. OpenAI ya reveló evaluaciones relacionadas con seguridad de la red en su system card de GPT-5.5, pero la evaluación independiente de terceros de AISI ofrece un estándar de pares más creíble.

Próximas observaciones: el cronograma de la siguiente ronda de evaluación de AISI y la respuesta de OpenAI ante el jailbreak

El siguiente punto de observación es el cronograma de la siguiente ronda de evaluación de modelos frontier por parte de AISI tras Mythos y GPT-5.5, y si OpenAI publicará en mayo actualizaciones dirigidas para responder a este universal jailbreak revelado. En las conclusiones de su informe, AISI afirma de forma explícita: “Si la capacidad de ciberataque es un subproducto de mejoras más amplias en razonamiento, codificación y tareas de autonomía, los avances posteriores podrían llegar a un ritmo más acelerado”; esta observación sugiere que en los próximos meses podría haber más modelos frontier que alcancen el umbral “nivel Mythos”.

Este artículo de evaluación de AISI: La capacidad de ciberataque de GPT-5.5 está al mismo nivel que Anthropic Mythos, aparece por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El Comité de Asuntos Exteriores de la Cámara de Representantes de EE. UU. se reúne con gigantes tecnológicos sobre los controles de exportación de IA después de que se apruebe la Ley MATCH con 36-8

Según Beating, los miembros de la Comisión de Asuntos Exteriores de la Cámara de Representantes de EE. UU. viajarán a Silicon Valley la próxima semana para reunirse con representantes de Google, Anthropic, Meta, Tesla, Intel, Applied Materials y Nvidia con el fin de analizar la inteligencia artificial y los controles de exportación. Una mesa redonda del sector es

GateNewsHace42m

OpenAI lanza Codex Pets, un compañero virtual impulsado por IA con generación personalizada

Beating afirma que OpenAI ha añadido una nueva función de “Codex Pets” a la aplicación de escritorio de Codex, que permite a los usuarios generar e interactuar con un compañero virtual animado. Los usuarios pueden activar una mascota escribiendo /pet en el editor. La función funciona como un indicador del estado del agente, mostrando un

GateNewsHace46m

El Pentágono firma contratos de despliegue de redes militares confidenciales con 7 grandes empresas de IA: Anthropic sigue quedando fuera

El Departamento de Defensa de EE. UU. anunció en mayo que firmó contratos militares de red confidenciales con 7 empresas, como SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft y Amazon Web Services, y además añadió Oracle para convertirse en la octava. El contrato permite ejecutar modelos en el nivel máximo de confidencialidad Impact Level 6/7. Los tres principales casos de uso son la integración de datos, la toma de decisiones de operaciones y la percepción de la situación en el campo de batalla, con un énfasis en diversificar el riesgo y evitar el bloqueo por parte del proveedor. Anthropic fue incluido en una lista negra por negarse a aceptar salvaguardas de seguridad para el personal militar y no recibió la firma. AMD no fue incluida directamente; los GPU los proporcionan NVIDIA y otras. A continuación, se observará si Anthropic cede, y cuál será el papel de los nuevos seleccionados como Reflection.

ChainNewsAbmediahace2h

Cerebras apunta al $4B IPO, valorada en ~$40B

El fabricante de chips de IA Cerebras Systems, con sede en Sunnyvale, California, busca hasta 4 mil millones de dólares en una OPV que podría valorar a la empresa en aproximadamente 40 mil millones de dólares, según Bloomberg. La comercialización formal podría comenzar tan pronto como el 4 de mayo, con bancos recibiendo más de 10 mil millones de dólares en indicaciones de

CryptoFrontierhace2h

Las empresas chinas de IA consideran desmantelar las estructuras de “red-chip” tras la suspensión de la adquisición de Manus por parte de Meta

Según Beating, la Comisión Nacional de Desarrollo y Reforma de China detuvo la adquisición de 2 mil millones de dólares de Meta de la empresa de agentes de IA Manus, lo que llevó a la Comisión Reguladora de Valores de China a endurecer la aprobación para las cotizaciones iniciales (IPO) en Hong Kong de las empresas red-chip (empresas chinas que mantienen activos nacionales th

GateNewshace3h

Musk completa testimonio de tres días en la demanda contra OpenAI, cita una reclamación de daños de 130-150 mil millones de dólares

Según varios informes de los medios, Elon Musk completó tres días de testimonio en su demanda contra OpenAI entre el 28 y el 30 de abril, con un testimonio acumulado de más de 7 horas. Musk, quien cofundó OpenAI en 2015 con una inversión inicial de 38 millones de dólares, afirmó que la empresa abandonó su organización sin fines de lucro m

GateNewshace4h
Comentar
0/400
Sin comentarios