Um modelo pequeno também pode identificar vulnerabilidades de cibersegurança detetadas pela deteção de Claude Mythos? AISLE: a muralha de proteção está no sistema, não no modelo

A startup de cibersegurança AISLE usa um modelo pequeno de 3,6B parâmetros, a apenas 0,11 dólares por cada milhão de tokens, para reproduzir parte das demonstrações centrais do sistema flagship de cibersegurança da Anthropic, Mythos. Os limites das capacidades de cibersegurança com IA são mais “irregulares” do que imagina.

(Resumo: Quando a Anthropic lançou o Mythos, seria o momento de uma bomba nuclear para a DeFi?)
(Informação de contexto: O Mythos da Anthropic é tão forte que força uma reunião de emergência: Bessent, Powell convocam a Citi, Goldman Sachs, Bank of America, JPMorgan e outras, cinco bancos focam-se nos riscos financeiros)

Sumário

Toggle

  • O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?
  • Por que modelos maiores não significam sistemas mais seguros
  • Onde está (e onde não está) a vantagem competitiva

A Anthropic publicou esta semana o modelo ainda não disponibilizado publicamente Claude Mythos Preview e, em simultâneo, lançou o Project Glasswing (Plano Asa de Vidro), um projecto que conta com 12 empresas tecnológicas, incluindo Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., para realizar investigação defensiva de cibersegurança com esse modelo.

Como o Mythos, alegadamente, encontra de forma autónoma milhares de vulnerabilidades zero-day em cada sistema operativo principal e em navegadores (zero-day vulnerability, ou seja, falhas de segurança que ainda não foram corrigidas e que mesmo os fornecedores podem não conhecer), sugere-se que se está a abrir uma nova era de defesa em cibersegurança dominada por IA.

No entanto, menos de uma semana depois, a startup de cibersegurança AISLE, co-fundada por um antigo investigador da DeepMind e pela equipa da Anthropic, Stanislav Fort, publicou um relatório sistemático no blog técnico da empresa.

Conclusão central, directa: na tarefa de demonstração flagship do Mythos, um modelo pequeno open source com apenas 3,6B parâmetros activos, custando 0,11 dólares por milhão de tokens, atinge os mesmos resultados de detecção de vulnerabilidades.

O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?

A AISLE desenhou três conjuntos de testes, cada um correspondente a tarefas de cibersegurança com diferentes níveis de dificuldade e naturezas.

Primeiro conjunto: testes de falso positivo do OWASP (Open Web Application Security Project).

Traduzido: trata-se de um pequeno excerto de código de consulta Java SQL que parece uma Injection SQL (ataque de injeção na base de dados), mas que, na realidade, está logicamente isento de falhas de segurança. A resposta correcta é “não é uma vulnerabilidade”.

Os resultados mostram um efeito de scaling quase inverso (efeito de escalabilidade em sentido contrário): o modelo open source pequeno GPT-OSS-20b (3,6B parâmetros activos, $0.11/M tokens) rastreou correctamente a lógica do programa e concluiu que era inofensivo.

Pelo contrário, o Claude Sonnet 4.5, toda a série GPT-4.1/5.4 (excepto o o3 e o pro), toda a série da Anthropic até ao Opus 4.5, foram todos marcados com confiança como vulnerabilidades de alto risco. Apenas um número muito reduzido de modelos de topo — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — acertou.

Segundo conjunto: vulnerabilidade do FreeBSD NFS, a CVE-2026-4747 destacada especialmente na divulgação flagship do Mythos, uma falha de execução remota de código não autorizado com 17 anos de história.

Resultado: os 8/8 modelos testados detectaram-na com sucesso, incluindo o modelo pequeno com 3,6B parâmetros activos. Todos os modelos identificaram correctamente stack buffer overflow (overflow do buffer da stack), calcularam o espaço restante e avaliaram-no como Critical RCE.

A conclusão da AISLE é: esta capacidade de detecção já foi “comercializada”.

Terceiro conjunto: vulnerabilidade do OpenBSD SACK (27 anos de história), que exige raciocínio matemático mesmo: rastrear uma cadeia lógica multi-etapas de overflow de inteiro com sinal (signed integer overflow), isto é, uma cadeia de lógica com números “com sinal”.

A dificuldade sobe de forma acentuada e a performance dos modelos diverge. O GPT-OSS-120b (5,1B parâmetros activos) reproduz integralmente a cadeia de exploração; a AISLE classifica como A+; a versão open source Kimi K2 obtém A-; já o Qwen3 32B dá uma conclusão errada de “o código é robusto” e recebe F.

Mesmo nesta tarefa mais difícil, um modelo open source com custos muito baixos consegue alcançar a mesma demonstração do sistema flagship.

Por que modelos maiores não significam sistemas mais seguros

O verdadeiro argumento deste relatório não é “os modelos pequenos chegam”, mas sim que a estrutura das capacidades de cibersegurança com IA é muito mais complexa do que o público imagina.

A AISLE decompõe o pipeline de IA para cibersegurança em cinco subtarefas independentes:

  • varrimento de amplo espectro (broad scanning)
  • detecção de vulnerabilidades (vulnerability detection)
  • validação por triagem (triage and validation)
  • geração de patches (patch generation)
  • construção de exploração de vulnerabilidades (exploit construction)

A natureza de scaling de cada subtarefa é diferente, assim como as capacidades do modelo necessárias. O anúncio do Mythos integra estas cinco camadas num único sistema completo, mas, na prática, as necessidades dos modelos entre elas são muito diferentes: algumas subtarefas já se encontram totalmente saturadas com 3,6B parâmetros, enquanto outras exigem capacidades de raciocínio complexo.

Isto ecoa o conceito “Jagged Frontier” (fronteira irregular) proposto em 2023 por investigadores da Harvard Business School, Dell’Acqua e outros, incluindo Mollick: os limites das capacidades de IA não são uma curva suave, mas sim uma espécie de serra em forma de “dentes”, com concavidades e convexidades; em algumas tarefas, ficam muito acima dos humanos, mas em tarefas adjacentes revelam uma fragilidade inesperada.

O estudo mostra que, se os utilizadores implantarem IA dentro do limite de capacidade, a produtividade melhora cerca de 40%; se a estenderem imprudentemente para além do limite, o desempenho diminui 19%.

Dentro deste quadro, a AISLE apresenta uma inferência mais operacional: “Mil detetives suficientes para o trabalho procuram em todo o lado, em vez de um detetive genial adivinhar onde procurar, conseguem encontrar mais vulnerabilidades.”

Uma implementação maciça de modelos de baixo custo para varrimento de amplo espectro pode, em termos globais, superar a abordagem de um agendamento prudente com um único modelo caro. A AISLE afirma que, desde meados de 2025, já executa um sistema de descoberta de vulnerabilidades em objectivos reais: encontraram 15 CVE no OpenSSL (sendo que uma única versão de segurança inclui 12, com CVSS 9,8 Critical), 5 no curl e mais de 180 CVE de validação externa em mais de 30 projectos.

Onde está (e onde não está) a vantagem competitiva

Esta análise para a Anthropic não constitui nem uma crítica abrangente, nem um mero endosso.

A AISLE afirma claramente que o significado do Mythos é demonstrar que a categoria “cibersegurança com IA” é real: não é apenas um conceito em experiências de laboratório, mas um sistema que pode funcionar em objectivos reais. O que a Anthropic está a fazer é maximizar a “densidade de inteligência por token”, o que ainda mantém um valor difícil de substituir em tarefas que exigem raciocínio profundo.

Mas a AISLE também aponta um problema mais fundamental para toda a indústria: a vantagem competitiva está no sistema, não no próprio modelo.

Na área de cibersegurança, a AISLE considera que o verdadeiro factor de diferenciação está em designs de arquitectura que incorporam conhecimento profundo especializado, por exemplo: como decompor tarefas, como agendar modelos com custos diferentes entre subtarefas e como manter a confiança dos responsáveis pela manutenção no ambiente de produção.

Um sistema que consegue encontrar vulnerabilidades com CVSS 9,8 dentro do OpenSSL, e um sistema que detecta vulnerabilidades conhecidas do tipo “padrão” numa demonstração controlada, não precisam apenas de um modelo mais forte, mas sim de uma lógica de engenharia completamente diferente.

Em suma, o relatório da AISLE conclui que modelos mais baratos e mais abertos já conseguem reproduzir parte das suas demonstrações centrais. O verdadeiro problema talvez não seja qual modelo é o mais forte, mas sim quem consegue primeiro fazer correr, em ambiente de produção, a arquitectura das cinco sub-tarefas.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Sierra angaria 950 milhões de dólares, avaliação de 15,8 mil milhões: Bret Taylor, em conjunto com a presidência da OpenAI, assume a liderança na corrida ao principal fornecedor de atendimento ao cliente por IA

A Sierra, cofundada por Bret Taylor, anunciou a conclusão de uma ronda Series E de 950 milhões de dólares, com uma avaliação de 15,8 mil milhões de dólares, liderada pela Tiger Global e pela GV. Em 8 trimestres, atingiu 150 milhões de dólares de ARR e uma taxa de penetração na Fortune 50 superior a 40%. Posiciona-se como uma plataforma vertical de atendimento ao cliente, centrada em agentes de IA, oferecendo fluxos de trabalho prontos a usar. Taylor é também presidente do OpenAI, com a governação e a divulgação de interesses em destaque.

ChainNewsAbmedia1h atrás

API da Gemini recebe Webhooks: a Google resolve a dor da sondagem em ciclo para tarefas longas, e o Batch/Veo pode ser enviado em tempo real

A Google Gemini API lançou Webhooks a 4 de maio. As tarefas longas, uma vez concluídas, enviam automaticamente o resultado para a callback URL, substituindo a sondagem contínua (polling), reduzindo o consumo de recursos e a latência e simplificando o código. Aplica-se ao Batch API, ao Veo2 e a inferências com long context, sendo especialmente adequado para serverless. Em comparação, a OpenAI tende a usar SSE, e a Anthropic ainda recorre a polling; a Google destaca a construção de infraestruturas para os programadores. No futuro, há atenção a mecanismos de segurança e à expansão dos modelos. Para os programadores em Taiwan, a integração imediata pode reduzir significativamente as quotas e a carga do sistema.

ChainNewsAbmedia1h atrás

Krutrim muda-se para serviços de cloud de IA a 5 de maio, publica os primeiros lucros à medida que a receita do ano fiscal 26 atinge 31,6 milhões de dólares

De acordo com a Press Trust of India, a empresa indiana de IA Krutrim reposicionou-se, a 5 de maio, como fornecedora de serviços de nuvem de IA a nível nacional, suspendendo os seus esforços de conceção de chips e redirecionando capital e talento para a infraestrutura de nuvem. A empresa reportou uma receita no AF26 de aproximadamente 3 mil milhões de rúpias (31,6 milhões de USD

GateNews2h atrás

Os investimentos da Anthropic e da OpenAI ultrapassaram os 1,1 mil milhões de dólares em trading de cripto no retalho desde o início de 2026

De acordo com a Bloomberg, os investidores de retalho terão injectado aproximadamente 1,13 mil milhões de dólares em trading alavancado em derivados de empresas privadas de IA desde o início de 2026. As plataformas cripto Ventuals e PreStocks permitem negociação 24 horas por dia em empresas como Anthropic, OpenAI e SpaceX, sem conceder directamente e

GateNews3h atrás
Comentar
0/400
Nenhum comentário