Оценка AISI: возможности GPT-5.5 в сетевых атаках и Anthropic Mythos на одном уровне

Британский AI Security Institute (AI Security Institute, AISI) 1 мая опубликовал отчет об оценке возможностей GPT-5.5 от OpenAI в рамках сетевых атак. В отчете отмечается, что вероятность успеха GPT-5.5 в тесте на сложности Expert составляет 71,4%, а в Anthropic Claude Mythos Preview — 68,6%; разрыв укладывается в пределы статистической погрешности. GPT-5.5 также является второй после Mythos системой ИИ, которая способна автономно выполнить 32-шаговую корпоративную симуляцию вторжения AISI «The Last Ones». AISI предупреждает, что это указывает на быстрое развитие атакующих возможностей ИИ, которое, возможно, относится к общему тренду, а не к единичному прорыву.

Тест на сложности Expert: 71,4% vs 68,6%, разрыв в пределах погрешности

AISI — исследовательская организация по безопасности ИИ при Министерстве науки, инноваций и технологий Великобритании. Данный тест представляет собой очередной раунд последних оценок AISI атакующих сетевых способностей frontier-моделей. В задачах максимальной сложности Expert средняя вероятность успеха GPT-5.5 составляет 71,4%, а у Mythos Preview — 68,6%; разрыв между ними укладывается в диапазон статистической погрешности, что означает, что атакующие способности флагманских моделей OpenAI и Anthropic сейчас фактически сравнялись.

32-шаговый симуляционный тест взлома корпоративной сети «The Last Ones» — один из самых сложных оценочных пунктов AISI: GPT-5.5 самостоятельно завершил 2 попытки из 10 (без вмешательства человека), а Mythos Preview — 3 из 10. В прошлом этот проект удавалось завершить только Mythos, а GPT-5.5 — второй моделью, которая достигла результата. В другом тесте GPT-5.5 потребовалось около 10 минут, чтобы взломать задачу по обратной инженерии, тогда как среднее время, необходимое человеческим экспертам по безопасности, — 12 часов.

Universal jailbreak: за 6 часов разработкой red team можно обойти все фильтры запросов со злонамеренными намерениями

В ходе испытаний исследователи AISI также обнаружили вектор атаки «universal jailbreak» (универсального обхода ограничений): во всех категориях злонамеренных сетевых запросов, задействованных в тестах, эта атака заставляет GPT-5.5 выдавать вредоносный контент, включая сценарии многораундовых агентных диалогов. AISI сообщает, что специалисты red team потратили около 6 часов на разработку этого jailbreak.

Для OpenAI наличие этого universal jailbreak означает, что даже при развертывании GPT-5.5-Cyber в ограниченных сценариях доступа вроде trusted access, его все еще могут обойти технически подготовленные противники. OpenAI в system card для GPT-5.5 уже раскрывал оценки, связанные с кибербезопасностью, но независимая оценка AISI как третьей стороны дает более заслуживающий доверия ориентир для сопоставления на уровне peer.

Дальнейшие наблюдения: график следующей оценки AISI и реакция OpenAI на jailbreak

Следующая точка наблюдения — сроки следующей оценки frontier-моделей AISI после Mythos и GPT-5.5, а также то, выпустит ли OpenAI в мае целевые обновления в ответ на выявленный universal jailbreak. В заключении отчета AISI прямо указывает: «Если агрессивные сетевые способности являются более широким побочным продуктом улучшений в рассуждениях, кодинге и выполнении самостоятельных задач, то в дальнейшем прогресс может приходить в более быстром темпе» — это наблюдение означает, что в ближайшие месяцы frontier-модели могут снова войти в порог «уровня Mythos».

Эта статья AISI: оценка GPT-5.5 сетевых атак и сопоставимость с Anthropic Mythos впервые появилась на Цепной новостной платформе ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Комитет по иностранным делам Палаты представителей США встречается с техногигантами по экспортным ограничениям ИИ после принятия законопроекта MATCH Act со счётом 36–8

По данным Beating, члены Комитета по иностранным делам Палаты представителей США на следующей неделе отправятся в Кремниевую долину, чтобы встретиться с представителями Google, Anthropic, Meta, Tesla, Intel, Applied Materials и Nvidia и обсудить искусственный интеллект и экспортный контроль. Отраслевое круглый стол — s

GateNews42м назад

OpenAI запускает Codex Pets — AI-ориентированного виртуального компаньона с пользовательской генерацией

Согласно Beating, OpenAI добавила новую функцию «Codex Pets» в настольное приложение Codex, позволяющую пользователям создавать и взаимодействовать с анимированным виртуальным питомцем. Пользователи могут активировать питомца, введя /pet в редакторе. Функция работает как индикатор состояния агента, отображая a

GateNews46м назад

Пентагон заключил секретный контракт на развертывание военной сети с 7 компаниями-разработчиками ИИ: Anthropic по-прежнему исключена

В мае Министерство обороны США объявило о подписании секретных контрактов на военное развертывание сети с семью компаниями, включая SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft и Amazon Web Services, а также добавило Oracle, став восьмой стороной. Контракт позволяет запускать модели на самом высоком уровне секретности Impact Level 6/7; ключевые три направления применения — интеграция данных, решения для боевого управления и осведомлённость о ситуации на поле боя, при этом подчёркиваются снижение рисков и недопущение привязки к поставщикам. Anthropic попала в чёрный список из-за отказа принять военные меры безопасности и не получила контракт. AMD напрямую не указана: графические процессоры поставляют NVIDIA и другие. В дальнейшем следует отслеживать, пойдёт ли Anthropic на уступки, а также роль новых участников вроде Reflection.

ChainNewsAbmedia2ч назад

Cerebras нацелена на IPO $4B с оценкой около $40 млрд

Базирующаяся в Силликон-Вэлли (Калифорния) компания по производству ИИ-чипов Cerebras Systems ищет до 4 миллиардов долларов в рамках IPO, которое может оценить компанию примерно в 40 миллиардов долларов, сообщает Bloomberg. Формальный маркетинг может начаться уже 4 мая, при этом банкам поступили более 10 миллиардов долларов в виде заявок от институциональных инвесторов на...

CryptoFrontier2ч назад

Китайские компании в сфере ИИ рассматривают демонтаж «красных фишек» после остановки приобретения Manus компанией Meta

По данным Beating, Национальная комиссия по развитию и реформам Китая остановила сделку по приобретению Meta за 2 миллиарда долларов компании Manus — разработчика AI-агентов, что побудило Комиссию по регулированию ценных бумаг Китая ужесточить требования к одобрению листинга в Гонконге для компаний с red-chip структурой (китайских компаний, владеющих внутренними активами th

GateNews3ч назад

Маск завершает трёхдневные показания в судебном иске против OpenAI, ссылаясь на требование о возмещении ущерба в размере 130—150 млрд долларов

По сообщениям нескольких СМИ, Илон Маск завершил три дня дачи показаний в своем иске против OpenAI 28–30 апреля, при этом суммарная длительность его показаний составила более 7 часов. Маск, который в 2015 году вместе с сооснователями основал OpenAI при первоначальных инвестициях в 38 миллионов долларов, заявил, что компания отказалась от своей некоммерческой m

GateNews4ч назад
комментарий
0/400
Нет комментариев