Anthropic teste le modèle d’IA le plus puissant qu’il ait jamais construit, et le monde n’était pas censé le savoir encore.
Une fuite de données rapportée par Fortune jeudi a révélé que le laboratoire d’IA derrière Claude a formé un nouveau modèle appelé “Mythos”, qu’il décrit en interne comme “de loin le modèle d’IA le plus puissant que nous ayons jamais développé.”
Le modèle a été découvert dans un brouillon de billet de blog laissé dans un cache de données non sécurisé et publiquement consultable, aux côtés de près de 3 000 autres actifs non publiés, selon des chercheurs en cybersécurité qui ont examiné le matériel.
Anthropic a confirmé l’existence du modèle après l’enquête de Fortune, le qualifiant de “changement radical” en matière de performance de l’IA et de “la plus capable que nous ayons construite à ce jour.” L’entreprise a déclaré qu’il était testé par des “clients d’accès anticipé” et a reconnu qu’une “erreur humaine” dans son système de gestion de contenu avait causé la fuite.
Le brouillon de billet de blog a introduit un nouveau niveau de modèle appelé “Capybara”, décrit comme plus grand et plus capable que les modèles Opus existants d’Anthropic, qui étaient auparavant les plus puissants.
“Comparé à notre meilleur modèle précédent, Claude Opus 4.6, Capybara obtient des scores nettement plus élevés lors de tests de codage logiciel, de raisonnement académique et de cybersécurité, entre autres”, a déclaré le brouillon.
C’est la dimension de la cybersécurité qui importe le plus pour l’industrie crypto. Le brouillon de billet de blog a déclaré que le modèle “pose des risques de cybersécurité sans précédent”, un cadre qui a des implications directes pour la sécurité de la blockchain, l’audit des contrats intelligents et la course aux armements croissante entre attaquants et défenseurs dans la DeFi.
Rien que cette semaine, Ripple a annoncé une refonte de sécurité pilotée par l’IA pour le XRP Ledger après qu’une équipe rouge assistée par IA a découvert plus de 10 vulnérabilités dans son code de 13 ans. Ethereum a lancé un hub de sécurité post-quantique dédié soutenu par huit ans de recherche.
Et le stablecoin Resolv a perdu son ancrage après qu’un attaquant a exploité un contrat de minting sans vérifications oracle et un contrôle d’accès par clé unique, le genre de défaillance d’infrastructure que des outils d’IA plus performants pourraient potentiellement identifier avant qu’un attaquant ne le fasse, ou exploiter plus rapidement que les défenseurs ne peuvent répondre.
Pour le marché des tokens AI, la fuite soulève une question différente. Le réseau décentralisé de Bittensor a récemment publié Covenant-72B, un modèle qui rivalise avec Llama 2 70B de Meta, déclenchant un rallye de 90 % dans le TAO et propulsant les tokens de sous-réseau à une capitalisation boursière combinée de 1,47 milliard de dollars.
Un “changement radical” d’un laboratoire centralisé comme Anthropic réinitialise la norme que les projets d’IA décentralisés doivent égaler. La distance concurrentielle entre ce qu’un laboratoire d’entreprise bien financé peut construire et ce qu’un réseau sans permission peut produire vient de s’élargir.
Anthropic a déclaré qu’il “était délibéré” concernant la publication du modèle compte tenu de ses capacités. Le brouillon de blog a noté que le modèle est coûteux à faire fonctionner et n’est pas encore prêt pour une disponibilité générale. L’entreprise a retiré l’accès public au cache de données après que Fortune l’ait contactée.
La fuite elle-même est une histoire d’avertissement. Une entreprise construisant ce qu’elle décrit comme un modèle d’IA avec des capacités de cybersécurité sans précédent a laissé l’annonce de ce modèle dans un magasin de données non sécurisé et publiquement consultable en raison d’une erreur humaine. L’ironie n’a pas besoin d’être développée.