Может ли небольшая модель обнаружить уязвимости в области кибербезопасности, выявляемые обнаружением Claude Mythos? AISLE: ров в системе, а не в модели

Кибербезопасностный стартап AISLE использует небольшую модель с 3,6B параметров — всего за 0,11 доллара за каждый миллион токенов — и воспроизводит часть ключевых демонстраций флагманской кибербезопасностной системы Mythos от Anthropic. Границы возможностей ИИ в кибербезопасности куда более «неравномерные», чем вы думаете.
(Предыстория: когда Anthropic выпускает Mythos, это будет момент ядерного взрыва для DeFi?)
(Дополнение к контексту: Mythos от Anthropic настолько силён, что вызвал срочное совещание: Бэссент, Пауэлл созвали Citi, Goldman Sachs, Bank of America, а также Б. и М.; пять банков сосредоточились на финансовых рисках)

Оглавление

Toggle

  • Что продемонстрировал Mythos и что воспроизвела малая модель?
  • Почему более большие модели не равны более безопасной системе
  • Где ров — и где его нет

На этой неделе Anthropic выпустила ранее не анонсированную модель Claude Mythos Preview и параллельно запустила проект Glasswing («Стеклянное крыло»), в рамках которого 12 технологических компаний — включая Amazon, Apple, Microsoft, CrowdStrike, Cisco и др. — используют эту модель для проведения оборонительных исследований в области кибербезопасности.

Поскольку, как утверждается, Mythos автономно находит тысячи zero-day уязвимостей (zero-day vulnerability — уязвимости безопасности, которые ещё не получили публичного исправления, и о которых могут не знать даже поставщики) в каждой ключевой операционной системе и браузере, это намекает на скорое наступление новой эпохи защиты кибербезопасности, где ведущую роль будет играть ИИ.

Однако менее чем за неделю кибербезопасностный стартап AISLE, основанный совместно бывшими исследователями DeepMind и Anthropic Станиславом Фортом (Stanislav Fort), опубликовал в корпоративном техническом блоге систематический отчёт.

Ключевой вывод прямо такой: в флагманской демонстрационной задаче Mythos открытая малая модель с active-параметрами всего 3,6B и стоимостью 0,11 доллара за миллион токенов добилась тех же результатов по обнаружению уязвимостей.

Что продемонстрировал Mythos и что воспроизвела малая модель?

AISLE разработала три набора тестов, каждый из которых соответствует различным по сложности и характеру задачам в кибербезопасности.

Первая группа — тесты на ложноположительные срабатывания OWASP (Open Web Application Security Project, проект по безопасности веб-приложений).

Если перевести по сути: фрагмент Java SQL-запроса выглядит как SQL Injection (атака SQL-инъекцией), но на самом деле логика безопасна. Правильный ответ — отсутствие уязвимости.

Результаты теста показывают почти обратный эффект scaling (масштабирования): небольшая открытая модель GPT-OSS-20b (3,6B active-параметров, $0.11/M tokens) корректно отслеживает логику программы и определяет, что угрозы нет.

Напротив, Claude Sonnet 4.5, все серии GPT-4.1/5.4 (кроме o3 и pro), вся линейка Anthropic вплоть до Opus 4.5 уверенно ошибочно классифицируют это как высокорисковую уязвимость. Правильный ответ дают только немногие топ-модели — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6.

Вторая группа — уязвимость FreeBSD NFS, то самое, что Mythos особенно продемонстрировала в своём флагманском релизе: CVE-2026-4747 — уязвимость удалённого выполнения кода, существующая 17 лет и не имеющая авторизации.

Итог: все 8/8 протестированных моделей успешно обнаружили уязвимость, включая ту малую модель с 3,6B active-параметрами. Все модели корректно распознали stack buffer overflow (переполнение стека буфера), вычислили оставшееся пространство и оценили это как Critical RCE.

Вывод AISLE таков: такая способность обнаружения уже «перешла в разряд товара».

Третья группа — уязвимость OpenBSD SACK (история на 27 лет), где требуется действительно математическое рассуждение: отслеживание многшаговой логической цепочки переполнения со знаком (signed integer overflow).

Сложность заметно растёт, а результаты моделей начинают заметно различаться. GPT-OSS-120b (5,1B active-параметров) полностью воспроизводит цепочку эксплуатации; AISLE оценивает это как A+; открытая версия Kimi K2 получает A-; а Qwen3 32B выдаёт ошибочный вывод «код очень устойчив», оценка F.

Даже в этой более сложной задаче модель с очень низкой стоимостью всё равно добилась равнозначной демонстрации на уровне флагманской системы.

Почему более большие модели не равны более безопасной системе

Настоящий аргумент этого отчёта — не «малой модели достаточно», а то, что структура возможностей ИИ в кибербезопасности гораздо сложнее, чем это видит внешний мир.

AISLE разбивает конвейер ИИ в кибербезопасности на пять независимых подзадач:

  • Широкоспектральное сканирование (broad scanning)
  • Обнаружение уязвимостей (vulnerability detection)
  • Разделение по категориям и валидация (triage and validation)
  • Генерация патчей (patch generation)
  • Конструирование эксплойта (exploit construction)

У каждой подзадачи своя природа scaling, поэтому требуемые способности моделей тоже различаются. Объявление Mythos объединяет эти пять уровней в виде единой системы, но на практике различия в потребностях моделей между ними колоссальны: некоторые подзадачи при 3,6B параметров уже полностью насыщены, а некоторые требуют сложных навыков рассуждения.

Это перекликается с концепцией «Jagged Frontier» («неровная/рваная граница»), которую в 2023 году предложили исследователи Harvard Business School — Dell’Acqua и Mollick и др.: граница возможностей ИИ — не гладкая ровная кривая, а зубчатые пилы с впадинами и выступами; в некоторых задачах ИИ намного превосходит человека, но в соседних задачах — неожиданно хрупок.

Исследование показало, что если пользователи развёртывают ИИ в пределах границы возможностей, производительность растёт примерно на 40%; если же необдуманно выходить за пределы границы, результат, напротив, падает на 19%.

В рамках этой модели AISLE делает более прикладной вывод: «тысяча детективов, которые обыскивают повсюду, вместо одного гениального детектива, который гадает, где искать, — найдут больше уязвимостей».

Массовое развёртывание недорогих моделей для широкоспектрального сканирования в суммарной эффективности может превосходить осторожное планирование одиночной модели с высокой стоимостью. AISLE заявляет, что начиная с середины 2025 года она выполняет системы обнаружения уязвимостей на реальных целях: в OpenSSL удалось найти 15 CVE (из них один выпуск безопасного обновления включает 12, CVSS 9.8 Critical), в curl — 5, а в более чем 30 проектах суммарно — свыше 180 внешне верифицированных CVE.

Где ров — и где его нет

Этот анализ для Anthropic не является ни всеобъемлющей критикой, ни простым подтверждением.

AISLE прямо указывает: смысл Mythos — доказать, что категория «AI для кибербезопасности» — реальна. Это не просто идея из демонстраций в лаборатории, а система, которая может работать на реальных целях. То, что делает Anthropic, — максимизация «интеллекта на токен», и даже в задачах, где требуется глубокое рассуждение, это значение остаётся трудно заменимым.

Но AISLE одновременно подчёркивает более фундаментальную проблему для всей отрасли: ров/“защитный барьер” находится в системе, а не в самой модели.

В области кибербезопасности AISLE считает, что именно архитектурный дизайн с встраиванием глубокой профессиональной экспертизы — например: как разложить задачу, как планировать разные по стоимости модели между подзадачами, как в производственной среде поддерживать доверие обслуживающих в maintenance людей, — является подлинным источником дифференциации.

Система, которая умеет находить CVSS 9.8 уязвимости в OpenSSL, и система, которая в контролируемой демонстрации обнаруживает уязвимости известных паттернов, требуют не просто более сильной модели, а совершенно иной инженерной логики.

В целом отчёт AISLE обнаружил следующее: более дешёвые, более открытые модели уже способны воспроизвести часть ключевых демонстраций. Вероятно, подлинная проблема не в том, чья модель сильнее, а в том, кто первым сумеет запустить в производственной среде архитектуру всех пяти подзадач.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Vobiz.ai привлекает $1M seed-финансирование для инфраструктуры Voice AI

Базирующаяся в Бангалоре Vobiz.ai, стартап по телекоммуникационной инфраструктуре для voice AI, привлекла 1 миллион долларов на посевном этапе, лидировал фонд Piper Serica VC Fund, сообщает компания. Основанная бывшими руководителями Plivo и Finin Суманом Гандхамом и Викашем Сриваставой, Vobiz

GateNews5м назад

Глава OpenAI Брокман раскрыл в суде владение акциями на 30 миллиардов долларов и тесную взаимосвязь с частными инвестициями Altman

4 мая на судебном заседании по иску Маска было раскрыто, что Грег Брокман владеет примерно акциями OpenAI на сумму около 30 млрд долларов, при этом его частные инвестиции тесно переплетены с приватными вложениями Сэма Альтмана и связаны с тремя интересами: Cerebras, Helion Energy и фондом семьи Альтмана. Такое переплетение рассматривается как доказательство мотивации Брокмана поддерживать переход к коммерциализации, а также затрагивает споры о том, как OpenAI управляется при переходе от некоммерческой структуры к коммерческой.

ChainNewsAbmedia11м назад

Еврокомиссия вступила в контакт с Anthropic Mythos: Домбровскис подтвердил вмешательство ЕС в конфиденциальные AI-модели

Еврокомиссия подтвердила, что ведёт обсуждения с Anthropic по техническим и нормативным последствиям Mythos, с учётом асимметричного доступа США и Европы к кибербезопасностному ИИ. Возможно, будут продвигаться условия для допуска с использованием таких инструментов, как Закон об ИИ, правила о иностранных субсидиях и NIS2/DORA: потребуется, чтобы Mythos обеспечил эквивалентный доступ для европейских банков или предоставил результаты тестирования. Далее будут наблюдаться ответы и прозрачность Glasswing.

ChainNewsAbmedia13м назад

Обновление цепочки поставок мобильных устройств OpenAI: MediaTek эксклюзивный процессор? Сроки серийного производства перенесены на первую половину 2027 года

Го Минг-цяо заявил, что OpenAI ускоряет разработку первого AI Agent-смартфона: цель — массовое производство в первой половине 2027 года, либо получение заказов на процессоры исключительно для MediaTek, с кастомным чипом на базе Dimensity 9600, который будет производиться TSMC по техпроцессу N2P во второй половине 2026 года. Ключевые спецификации включают ISP с высокой динамичностью, два NPU, LPDDR6, UFS 5.0 и безопасную pKVM. Если всё пойдёт по плану, в 2027—2028 годах будет отгружено около 30 миллионов устройств, что имеет существенное значение для нарратива вокруг IPO OpenAI и выхода на массовый потребительский рынок.

ChainNewsAbmedia21м назад

TrendAI объединяется с Anthropic, чтобы выявлять уязвимости платформ AI, обнаруживает критическую уязвимость с оценкой CVSS 9.8 в Nvidia Isaac GR00T

По данным Trend Micro, TrendAI сотрудничает с Anthropic, чтобы использовать Claude Opus 4.7 для исследований в области кибербезопасности с целью выявления уязвимостей в ПО, которые могут быть эксплуатированы, и ранжирования их по уровню риска. TrendAI присоединилась к программе Anthropic Cyber Verification Program, которая предоставляет одобренным группам доступ к передовым ИИ

GateNews35м назад

Индекс Hang Seng в Гонконге падает на 0,76% сегодня; снижаются акции, связанные с ИИ и чипами

Индекс Hang Seng в Гонконге закрылся снижением на 0,76% сегодня (5 мая), а индекс Hang Seng Tech упал на 0,94%. Падение возглавили акции компаний на базе больших языковых моделей и полупроводников: Zhipu AI снизилась более чем на 3%, Minimax — более чем на 2%, SMIC — на 1,87%, а Huahong Semiconductor — на 1,65%.

GateNews35м назад
комментарий
0/400
Нет комментариев