Avaliação da AISI: a capacidade de ataque cibernético da GPT-5.5 está no mesmo nível que a da Anthropic Mythos

ChainNewsAbmedia

O Instituto de Segurança de IA do Reino Unido (AI Security Institute, AISI) publicou em 1º de maio um relatório de avaliação sobre a capacidade de ataques cibernéticos do OpenAI GPT-5.5, indicando que a taxa de sucesso do GPT-5.5 nos testes de dificuldade Expert foi de 71,4%, enquanto a do Anthropic Claude Mythos Preview foi de 68,6%; a diferença ficou dentro da margem de erro estatístico. O GPT-5.5 também é o segundo sistema de IA, depois do Mythos, capaz de concluir de forma autônoma os 32 passos do AISI “The Last Ones”, simulando uma intrusão corporativa completa na rede. O AISI alerta que isso mostra que o rápido avanço nas capacidades de ataques por IA pode ser parte de uma “tendência geral”, e não um único evento de ruptura.

Testes de dificuldade Expert: 71,4% vs 68,6%, diferença dentro do erro

O AISI é uma instituição de pesquisa em segurança de IA vinculada ao Departamento de Ciência, Inovação e Tecnologia do Reino Unido. Esta rodada de testes é a avaliação mais recente do AISI sobre capacidades cibernéticas ofensivas de modelos de IA de ponta (frontier). Nas questões de maior dificuldade Expert, a taxa média de sucesso do GPT-5.5 foi de 71,4%, e a do Mythos Preview, de 68,6%; a diferença entre os dois ficou dentro da margem de erro estatístico, indicando que, no momento, as capacidades ofensivas dos principais modelos da OpenAI e da Anthropic já estão praticamente empatadas.

O teste de simulação de invasão de rede corporativa em 32 etapas “The Last Ones” é um dos itens de avaliação mais desafiadores do AISI: o GPT-5.5 concluiu 2 vezes em 10 tentativas de forma autônoma (sem intervenção humana), enquanto o Mythos Preview concluiu 3 vezes em 10. No passado, apenas o Mythos havia conseguido concluir esse projeto; o GPT-5.5 é o segundo modelo a atingir a meta. Em outro teste, o GPT-5.5 resolveu uma questão de engenharia reversa em cerca de 10 minutos, enquanto especialistas humanos de segurança levaram em média 12 horas.

Jailbreak universal: em 6 horas, o time de red consegue contornar todos os filtros de consultas maliciosas

Pesquisadores do AISI também identificaram um vetor de ataque de “universal jailbreak” (jailbreak universal): em todas as categorias de consultas de rede maliciosas testadas, esse ataque consegue induzir o GPT-5.5 a gerar conteúdo prejudicial, incluindo cenários de diálogo agentic em múltiplas rodadas. O AISI afirma que especialistas do time de red levaram cerca de 6 horas para desenvolver esse jailbreak.

Para a OpenAI, a existência desse universal jailbreak significa que, mesmo se o GPT-5.5-Cyber for implantado em cenários de acesso restrito, como o programa de trusted access, ainda pode ser contornado por adversários tecnicamente habilidosos. A OpenAI já revelou, na system card do GPT-5.5, avaliações relacionadas à segurança cibernética; mas a avaliação independente de terceiro do AISI oferece um referencial de pares mais confiável.

Observações futuras: cronograma da próxima avaliação do AISI e resposta da OpenAI ao jailbreak

O próximo ponto de observação é o cronograma do AISI para a próxima avaliação de modelos de ponta (frontier) depois do Mythos e do GPT-5.5, bem como se a OpenAI publicará atualizações direcionadas em maio para enfrentar o universal jailbreak divulgado nesta ocasião. Nas conclusões do relatório, o AISI afirma de forma clara: “se capacidades cibernéticas ofensivas forem um subproduto de melhorias mais amplas em raciocínio, codificação e tarefas autônomas, os avanços futuros podem chegar em um ritmo mais acelerado” — essa observação sugere que, nos próximos meses, talvez mais modelos de ponta ingressem no nível “Mythos”.

Este artigo AVALIAÇÃO do AISI: capacidade de ataque cibernético do GPT-5.5 e equivalência com o Anthropic Mythos aparece primeiro no site Cadeia Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Comitê de Assuntos Externos da Câmara dos EUA se reúne com gigantes de tecnologia sobre controles de exportação de IA após a aprovação da lei MATCH Act por 36-8

Segundo Beating, membros da Comissão de Relações Exteriores da Câmara dos Representantes dos EUA viajarão para o Vale do Silício na próxima semana para se reunir com representantes do Google, Anthropic, Meta, Tesla, Intel, Applied Materials e Nvidia para discutir inteligência artificial e controles de exportação. Uma mesa-redonda da indústria é

GateNews42m atrás

OpenAI Lança Codex Pets, Companheiro Virtual com IA e Geração Personalizada

De acordo com Beating, a OpenAI adicionou um novo recurso “Codex Pets” ao aplicativo de desktop do Codex, permitindo que os usuários criem e interajam com um companheiro virtual animado. Os usuários podem ativar um pet digitando /pet no editor. O recurso funciona como um indicador de status de agente, exibindo um

GateNews46m atrás

Pentágono assina contratos confidenciais de implantação de rede militar com 7 empresas de IA: Anthropic ainda excluída

O Departamento de Defesa dos EUA anunciou em maio que assinou contratos confidenciais para implantações de rede militar com 7 empresas, incluindo SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft e Amazon Web Services, e também acrescentou a Oracle para se tornar a 8ª. O contrato permite executar modelos no mais alto nível de sigilo, Impact Level 6/7, com foco em três principais aplicações: integração de dados, decisões de operações e consciência situacional do campo de batalha, destacando a redução de riscos e a prevenção de vínculo com fornecedores. A Anthropic foi colocada na lista negra por recusar barreiras de segurança para o setor militar e não recebeu contrato. A AMD não foi citada diretamente; as GPUs são fornecidas por NVIDIA e outras. Agora, a atenção fica sobre se a Anthropic vai ceder e qual será o papel de novas escolhidas, como a Reflection.

ChainNewsAbmedia2h atrás

Cerebras mira o IPO de $4B , avaliado em ~US$ 40 bilhões

A fabricante de chips de IA Cerebras Systems, com sede em Sunnyvale, na Califórnia, busca levantar até US$ 4 bilhões em uma IPO que pode avaliar a empresa em aproximadamente US$ 40 bilhões, segundo a Bloomberg. A divulgação formal poderia começar já em 4 de maio, com bancos recebendo mais de US$ 10 bilhões em indicações de

CryptoFrontier2h atrás

Empresas chinesas de IA consideram desmontar estruturas de “red-chip” após a pausa na aquisição do Manus pela Meta

De acordo com a Beating, a Comissão Nacional de Desenvolvimento e Reforma da China suspendeu a aquisição de US$ 2 bilhões da Meta da empresa de agentes de IA Manus, levando a Comissão Reguladora de Valores Mobiliários da China a apertar a aprovação para listagens de IPO em Hong Kong por empresas red-chip (empresas chinesas que detêm ativos domésticos th

GateNews3h atrás

Musk Conclui Depoimento de Três Dias em Processo da OpenAI, Cita Alegação de US$ 130-150 bilhões em Danos

De acordo com múltiplos relatos da mídia, Elon Musk concluiu três dias de depoimento em sua ação judicial contra a OpenAI em 28 a 30 de abril, com depoimento acumulado de mais de 7 horas. Musk, que cofundou a OpenAI em 2015 com um investimento inicial de US$ 38 milhões, afirmou que a empresa abandonou sua organização sem fins lucrativos não-profit m

GateNews4h atrás
Comentário
0/400
Sem comentários