Un petit modèle peut-il aussi détecter des vulnérabilités de cybersécurité que Claude Mythos détecte ? AISLE : le fossé protecteur est dans le système, pas dans le modèle

La startup en cybersécurité AISLE, créée par ![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29###, a reproduit une partie des démonstrations clés du système phare de sécurité informatique d’Anthropic, Mythos, avec un petit modèle à 3,6B paramètres actifs seulement, coûtant 0,11 dollar par million de tokens. Les limites des capacités en cybersécurité de l’IA sont plus « irrégulières » que ce que vous imaginez.
(Contexte : Lorsque Anthropic publiera Mythos, est-ce que ce sera le moment d’une bombe nucléaire pour DeFi ?)
(Complément de contexte : Mythos est tellement puissant qu’il déclenche une réunion d’urgence : Bescent et Powell rassemblent Citi, Goldman Sachs, Bank of America, et les grands et moyens Morgan, cinq banques se concentrant sur les risques financiers.)

Table des matières

Toggle

  • Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?
  • Pourquoi un modèle plus grand ne signifie pas un système plus sûr
  • Où se trouve le fossé de protection — et où il ne se trouve pas

Anthropic a publié cette semaine un modèle non encore rendu public, le Claude Mythos Preview, et a aussi lancé simultanément le projet Project Glasswing (Glasswing), un programme porté par 12 entreprises technologiques, dont Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., qui utilisent ce modèle pour mener des recherches de cybersécurité défensives.

Parce que Mythos, selon les allégations, repère de manière autonome des milliers de vulnérabilités zero-day (vulnérabilité zero-day : faille de sécurité non encore corrigée et que les fournisseurs eux-mêmes peuvent ne pas connaître) dans chaque système d’exploitation majeur et dans les navigateurs, cela suggère qu’une nouvelle ère de défense en cybersécurité menée par l’IA est sur le point de commencer.

Cependant, moins d’une semaine plus tard, la startup en cybersécurité AISLE — cofondée par Stanislav Fort, chercheur à la fois chez DeepMind et chez Anthropic — a publié, dans le blog technique de la société, un rapport systématique.

Conclusion centrale, sans détour : lors de la tâche phare de démonstration de Mythos, un modèle open source dont le nombre de paramètres actifs n’est que de 3,6B, coûtant 0,11 dollar pour chaque million de tokens, obtient le même résultat en détection des vulnérabilités.

Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?

AISLE a conçu trois séries de tests, chacune correspondant à des tâches de cybersécurité différentes, avec des difficultés et des natures distinctes.

La première série est un test de faux positifs pour OWASP (Open Web Application Security Project).

En traduction : une portion de code de requête Java SQL ressemble à une attaque par injection SQL (SQL Injection), mais en réalité, la logique est sûre. La bonne réponse est : ce n’est pas une vulnérabilité.

Les résultats des tests montrent un effet de scaling (mise à l’échelle) presque inversé : le petit modèle open source GPT-OSS-20b (3,6B paramètres actifs, $0.11/M tokens) suit correctement la logique du programme et conclut qu’il est inoffensif.

À l’inverse, Claude Sonnet 4.5, l’ensemble de la série GPT-4.1/5.4 (sauf o3 et pro), l’ensemble de la famille Anthropic jusqu’à Opus 4.5, classent tous avec assurance des faux positifs comme des vulnérabilités à haut risque. Seuls quelques modèles de toute première catégorie — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — répondent correctement.

La deuxième série est une vulnérabilité FreeBSD NFS, le CVE-2026-4747, spécialement mise en avant dans la publication phare de Mythos : une vulnérabilité d’exécution de code à distance non autorisée vieille de 17 ans.

Résultat : les 8/8 modèles testés détectent tous avec succès, y compris ce petit modèle à 3,6B paramètres actifs. Tous les modèles identifient correctement un stack buffer overflow (débordement de mémoire tampon de la pile), calculent l’espace restant et l’évaluent comme un Critical RCE.

La conclusion d’AISLE est la suivante : ces capacités de détection sont déjà « industrialisées ».

La troisième série est une vulnérabilité OpenBSD SACK (historique de 27 ans), nécessitant de véritables raisonnements mathématiques : suivre une chaîne logique multi-étapes de débordement d’entier avec signe (signed integer overflow), à partir du raisonnement autour de la trace.

La difficulté augmente nettement, et les performances des modèles se différencient. GPT-OSS-120b (5,1B paramètres actifs) reproduit entièrement la chaîne d’exploitation, AISLE l’évalue A+. La version open source Kimi K2 obtient A-. Tandis que Qwen3 32B aboutit à une conclusion erronée du type « le code est robuste », évaluée F.

Même sur cette tâche plus difficile, un modèle open source extrêmement peu coûteux parvient à réaliser la même démonstration que le système phare.

( Pourquoi un modèle plus grand ne signifie pas un système plus sûr

Le véritable point de cette étude n’est pas « un petit modèle suffit », mais que la structure des capacités de cybersécurité de l’IA est bien plus complexe que ce que le public imagine.

AISLE décompose la chaîne d’outils en cybersécurité de l’IA en cinq sous-tâches indépendantes :

  • Scan large (broad scanning)
  • Détection de vulnérabilités (vulnerability detection)
  • Évaluation et validation (triage and validation)
  • Génération de correctifs (patch generation)
  • Construction d’exploits (exploit construction)

La nature de la mise à l’échelle (scaling) de chaque sous-tâche est différente, et les capacités de modèle requises ne sont pas les mêmes. L’annonce de Mythos intègre ces cinq niveaux comme un système complet, mais en réalité, leurs besoins en modèles sont extrêmement différents : certaines sous-tâches sont déjà complètement saturées avec 3,6B paramètres, tandis que d’autres nécessitent des capacités de raisonnement complexes.

Cela fait écho au concept de « Jagged Frontier » (frontière irrégulière) proposé en 2023 par les chercheurs de Harvard Business School Dell’Acqua et Mollick, etc. : la frontière des capacités de l’IA n’est pas une courbe lisse, mais une bordure en dents de scie, avec des creux et des bosses ; sur certaines tâches, elle dépasse largement les humains, mais sur des tâches adjacentes, elle devient étonnamment fragile.

L’étude montre que si les utilisateurs déploient l’IA à l’intérieur de la frontière des capacités, la productivité augmente d’environ 40 % ; mais s’ils l’étendent imprudemment au-delà de la frontière, les performances diminuent au contraire de 19 %.

Dans ce cadre, AISLE propose une inférence plus directement applicable : « Mille détectives “suffisants” cherchent partout, plutôt qu’un détective génial qui devine où chercher, et cela permet de trouver plus de vulnérabilités. »

Déployer massivement des modèles à faible coût pour réaliser des scans à large spectre peut, en termes d’efficacité globale, surpasser une planification prudente utilisant un seul modèle haut coût. AISLE indique qu’à partir du milieu de 2025, elle exécute un système de découverte de vulnérabilités sur des objectifs réels : elle a trouvé 15 CVE dans OpenSSL (dont 12 proviennent d’une seule version de sécurité, avec CVSS 9.8 Critical), 5 dans curl, et au total plus de 180 CVE validées par des tiers externes dans plus de 30 projets.

) Où se trouve le fossé de protection — et où il ne se trouve pas

Cette analyse n’est ni une critique exhaustive d’Anthropic, ni un simple soutien sans réserve.

AISLE précise clairement que la signification de Mythos consiste à prouver que la catégorie « cybersécurité basée sur l’IA » est réelle : ce n’est pas seulement une idée mise en scène dans un laboratoire de démonstration, mais un système capable de fonctionner sur de véritables objectifs. Ce qu’Anthropic cherche à maximiser, c’est la « densité de sagesse par token », ce qui conserve une valeur difficilement remplaçable, même pour des tâches nécessitant un raisonnement approfondi.

Mais AISLE souligne en même temps un problème plus fondamental pour l’ensemble de l’industrie : le fossé de protection se trouve dans le système, pas dans le modèle lui-même.

Dans le domaine de la cybersécurité, AISLE estime que ce qui crée la vraie différenciation, ce sont des conceptions d’architecture intégrant une expertise approfondie, par exemple : comment décomposer les tâches, comment planifier l’exécution de modèles de différents coûts entre les sous-tâches, et comment maintenir la confiance des mainteneurs dans l’environnement de production.

Un système capable de trouver des vulnérabilités CVSS 9.8 dans OpenSSL, et un système qui détecte, dans une démonstration contrôlée, des vulnérabilités connues correspondant à des motifs, ne nécessitent pas seulement un modèle plus puissant, mais une logique d’ingénierie totalement différente.

En résumé, le rapport d’AISLE conclut : des modèles plus bon marché et plus ouverts peuvent déjà reproduire une partie de ses démonstrations clés. Le vrai problème n’est peut-être pas de savoir quel modèle est le plus fort, mais plutôt : qui fait d’abord fonctionner en production l’architecture des cinq sous-tâches.

![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Jensen Huang réfute la théorie de l’« apocalypse de l’IA » : l’avenir créera de grandes quantités de nouveaux emplois émergents

Le PDG de Nvidia, Jensen Huang, a déclaré lors d’un panel mondial que l’IA n’est pas une apocalyptique, et estime qu’elle contribuera à relancer l’industrialisation des États-Unis et à créer des emplois. Il prévoit que la prochaine vague d’« IA agentique » fera exploser la demande de GPU jusqu’à mille fois, nécessitant de nouvelles infrastructures industrielles et un vaste marché du travail. Il a souligné que l’IA améliore la productivité plutôt que de remplacer les travailleurs, et a appelé à un développement responsable ainsi qu’à des normes de sécurité transnationales ; les impacts sur l’emploi et l’économie restent à observer à long terme.

ChainNewsAbmediaIl y a 7m

OpenAI accélère le lancement du téléphone pour agents IA jusqu’à mi-2027, MediaTek pour obtenir un accord exclusif de processeur

D’après la dernière enquête sectorielle de l’analyste Ming-Chi Kuo, OpenAI accélère le développement de son premier téléphone doté d’un agent IA et vise une production de masse dès le T1 2027. MediaTek a désormais plus de chances d’obtenir une commande de processeur exclusive, avec une puce basée sur une version personnalisée de

GateNewsIl y a 10m

Sierra lève 950 millions de dollars, valorisée à 15,8 milliards : Bret Taylor, en tant que président d'OpenAI, prend les commandes du leader du service client basé sur l'IA

Sierra, cofondée par Bret Taylor, annonce avoir bouclé un tour Series E de 950 millions de dollars, avec une valorisation de 15,8 milliards de dollars, mené par Tiger Global et GV. En 8 saisons, la société a atteint 150 millions de dollars de ARR et un taux de pénétration Fortune 50 supérieur à 40 %. Positionnée comme une plateforme de service client B2B verticale centrée sur les agents IA, elle propose des flux de travail prêts à l’emploi. Taylor est également président du conseil d’administration d’OpenAI, et la gouvernance ainsi que la divulgation des intérêts sont au cœur des discussions.

ChainNewsAbmediaIl y a 1h

Gemini API lance des Webhooks : Google résout la douleur du polling des tâches longues, avec une diffusion instantanée via Batch / Veo

L’API Google Gemini a lancé les Webhooks le 4 mai : pour les tâches longues terminées, elle envoie automatiquement le résultat vers l’URL de callback, remplaçant le polling. Cela réduit la consommation de ressources et la latence, tout en simplifiant le code. Les Webhooks s’appliquent à l’API Batch, à Veo2 et à l’inférence avec des contexts longs, et sont particulièrement adaptés aux architectures serverless. Par rapport à OpenAI qui privilégie le SSE et à Anthropic qui continue d’utiliser le polling, Google met en avant des fondations d’infrastructure pour les développeurs. À l’avenir, l’attention se portera sur les mécanismes de sécurité et l’extensibilité des modèles. Pour les développeurs à Taïwan, une intégration immédiate peut réduire de manière significative les limites d’utilisation (quota) et la charge du système.

ChainNewsAbmediaIl y a 1h

Krutrim passe aux services cloud d’IA le 5 mai, publie ses premiers bénéfices alors que le chiffre d’affaires de l’exercice 26 atteint 31,6 millions de dollars

Selon Press Trust of India, la société indienne d’IA Krutrim s’est repositionnée en tant que fournisseur de services de cloud d’IA domestique le 5 mai, en mettant en pause ses efforts de conception de puces et en redirigeant ses capitaux et ses talents vers l’infrastructure cloud. La société a annoncé un chiffre d’affaires pour l’exercice FY26 d’environ 3 milliards de roupies (31,6 millions de dollars US)

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire