Vitalik Buterin a lancé une nouvelle alerte concernant l’intelligence artificielle, cette fois en mettant moins l’accent sur le battage médiatique et davantage sur la confidentialité. Dans un nouvel article de blog, le cofondateur d’Ethereum a soutenu que de nombreux outils d’IA sont construits sur une infrastructure distante pouvant accéder à des données sensibles des utilisateurs, ce qui crée des risques que la plupart des gens ne perçoivent pas pleinement lorsqu’ils saisissent dans un chatbot, délèguent une tâche ou connectent un service externe. Le sujet, tel qu’il le décrit, ne se limite pas à un seul modèle ni à une seule application. C’est structurel. L’infrastructure d’IA distante élargit la surface de confidentialité Le point de Buterin est assez direct. Un nombre croissant de produits d’IA reposent sur une infrastructure située en dehors de l’appareil de l’utilisateur et en dehors de son contrôle. Cela signifie que les invites, les fichiers, les détails de compte et les habitudes d’utilisation peuvent tous passer par des systèmes susceptibles de stocker, traiter ou réutiliser les données d’une manière que l’utilisateur n’avait jamais prévue. Il a averti que le problème ne s’arrête pas aux grands modèles de langage. Les services externes liés à ces systèmes peuvent introduire leurs propres vulnérabilités, des simples fuites de données à l’utilisation non autorisée d’informations personnelles. En d’autres termes, le danger n’est pas seulement le modèle. C’est toute la chaîne autour de lui. Cela compte parce que l’IA est de plus en plus vendue comme une couche d’assistance dans la finance, le logiciel, la communication et l’identité en ligne. Plus elle devient utile, plus elle tend à absorber du contexte privé. Les jailbreaks transforment l’IA d’assistant en passif Buterin a également évoqué les attaques par jailbreak comme menace spécifique. Ces attaques utilisent des entrées externes pour manipuler un modèle de manière à ce qu’il se comporte d’une façon contraire aux intérêts de l’utilisateur, transformant effectivement un assistant en quelque chose de moins fiable et potentiellement dangereux. Cet avertissement intervient à un moment où les outils d’IA se rapprochent davantage de l’exécution que de la simple conversation. À mesure que ces systèmes accèdent à des messages, des portefeuilles, des documents et des actions automatisées, des défaillances de confidentialité peuvent rapidement devenir aussi des défaillances opérationnelles. Ce que Buterin signale vraiment ici, c’est un changement dans le risque. L’IA n’est désormais plus seulement une question de capacité. Elle devient une question de frontières de confiance, de qui contrôle les données, de l’endroit où le modèle s’exécute et de ce qui se passe lorsque cette frontière échoue.