Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic poursuit le gouvernement américain pour l'avoir qualifié de risque
Anthropic poursuit le gouvernement américain pour l’avoir qualifié de risque
il y a 1 jour
PartagerEnregistrer
Kali HaysJournaliste en technologie
PartagerEnregistrer
Reuters
La société d’intelligence artificielle (IA) Anthropic a déposé une plainte sans précédent contre le gouvernement américain, l’accusant d’être un « risque dans la chaîne d’approvisionnement ».
Le PDG de l’entreprise, Dario Amodei, et le secrétaire à la Défense, Pete Hegseth, ont été publiquement en conflit en raison du refus de l’entreprise d’autoriser l’armée à utiliser librement ses outils d’IA.
Le Pentagone a répliqué en faisant d’Anthropic la première entreprise américaine à être étiquetée comme un « risque dans la chaîne d’approvisionnement », mais Anthropic a déclaré dans sa plainte lundi contre plusieurs agences gouvernementales américaines que cette action était « sans précédent et illégale ».
Un porte-parole du Département de la Défense des États-Unis a refusé de commenter, invoquant une politique sur les litiges en cours.
« La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise pour ses discours protégés », a écrit Anthropic. « Aucun statut fédéral n’autorise les actions entreprises ici. »
La plainte d’Anthropic vise le bureau exécutif du président Donald Trump ; plusieurs dirigeants gouvernementaux, dont Hegseth, le secrétaire d’État Marco Rubio, et le secrétaire au Commerce Howard Lutnick ; ainsi que 16 agences gouvernementales, dont le Département de la Guerre, le Département de la Sécurité intérieure et le Département de l’Énergie.
Le Département de la Guerre est un nom secondaire donné par Trump au Département de la Défense.
Liz Huston, porte-parole de la Maison Blanche, a déclaré à la BBC qu’Anthropic est « une entreprise de gauche radicale, woke » qui tente de contrôler l’activité militaire.
« Sous l’administration Trump, notre armée obéira à la Constitution des États-Unis – et non aux conditions d’utilisation d’une entreprise d’IA woke », a déclaré Huston.
Anthropic a contesté cela dans sa plainte déposée lundi matin devant un tribunal fédéral en Californie.
L’entreprise a indiqué que Hegseth lui avait demandé de supprimer toute restriction d’utilisation dans son contrat de défense, malgré les limitations sur la « guerre autonome létale » et la « surveillance massive des Américains » qui faisaient toujours partie de ses contrats gouvernementaux.
Depuis 2024, Anthropic est utilisée par le gouvernement et l’armée américains, étant la première société d’IA avancée à déployer ses outils dans des agences gouvernementales effectuant des travaux classifiés.
‘Condamnation publique’
Anthropic a déclaré avoir travaillé avec Hegseth pour réviser le langage du contrat afin de répondre aux besoins militaires. Alors qu’ils approchaient d’une négociation réussie pour continuer à travailler avec le département, incluant des limitations concernant la surveillance et l’armement, ces discussions ont été brusquement interrompues.
Au lieu de cela, le Département de la Défense « a répondu aux tentatives de compromis d’Anthropic par une condamnation publique ».
Pendant que Anthropic négociait avec des responsables de la défense, Trump a critiqué l’entreprise en la qualifiant de « groupuscules de gauche » et a ordonné à toutes les agences gouvernementales d’arrêter d’utiliser les outils d’Anthropic.
Hegseth a rapidement suivi l’annonce de Trump en qualifiant Anthropic de « risque dans la chaîne d’approvisionnement », ce qui signifiait que des outils comme Claude étaient soudainement considérés comme pas assez sécurisés pour une utilisation gouvernementale. Il a également interdit à toute entreprise travaillant avec le gouvernement d’utiliser les outils d’Anthropic.
Claude est l’un des outils d’IA les plus populaires au monde, avec Claude Code étant une composante quasi omniprésente dans le travail de certaines des plus grandes entreprises technologiques américaines, notamment Google, Meta, Amazon et Microsoft.
Ces entreprises collaborent également avec le gouvernement. La semaine dernière, Microsoft, Google et Amazon ont déclaré qu’elles continueraient à utiliser Claude en dehors de tout travail pour des agences de défense.
Néanmoins, Anthropic affirme avoir été « irréparablement » endommagée par les commentaires de Trump et Hegseth.
« Les contrats actuels et futurs avec des parties privées sont également en doute, mettant en danger des centaines de millions de dollars à court terme », a déclaré l’entreprise. « En plus de ces dommages économiques immédiats, la réputation d’Anthropic et ses libertés fondamentales protégées par le Premier Amendement sont attaquées. »
Anthropic a également souligné l’« effet dissuasif » sur la liberté d’expression que la répression de l’administration Trump a sur d’autres entités.
Mais lundi après-midi, près de 40 employés de Google et OpenAI ont déposé auprès du tribunal un mémoire soutenant Anthropic et ses efforts pour limiter les usages abusifs de l’IA, apportant leur expertise sur les dangers que pose l’utilisation à grande échelle de cette technologie.
« En tant que groupe, nous sommes divers dans nos politiques et philosophies, mais nous sommes unis dans la conviction que les systèmes d’IA de dernière génération présentent des risques lorsqu’ils sont déployés pour permettre la surveillance de masse domestique ou le fonctionnement de systèmes d’armes létales autonomes sans supervision humaine, et que ces risques nécessitent des garde-fous, qu’ils soient par des protections techniques ou des restrictions d’usage », ont déclaré les signataires du mémoire.
Google et OpenAI sont tous deux considérés comme des rivaux d’Anthropic en matière d’outils d’IA, et ces deux entreprises utilisent également de tels outils dans le secteur gouvernemental.
Le PDG d’OpenAI, Sam Altman, a admis la semaine dernière avoir précipité la signature du nouveau contrat de l’entreprise avec le Département de la Défense suite aux retombées d’Anthropic avec le gouvernement.
Anthropic ne demande pas de dommages-intérêts financiers dans sa plainte, mais elle demande au tribunal de déclarer immédiatement que la directive de Trump « dépasse l’autorité du président » et viole la Constitution, et de rejeter immédiatement sa qualification comme risque dans la chaîne d’approvisionnement.
Carl Tobias, professeur à la University of Richmond School of Law, a déclaré qu’une résolution rapide de la plainte est possible, mais il s’attend à ce que l’administration Trump adopte une approche « de terre brûlée ».
« Anthropic pourrait très bien gagner devant un tribunal fédéral, mais ce gouvernement n’hésitera pas à faire appel », a déclaré Tobias. « Il ira probablement jusqu’à la Cour suprême. »
Trump ordonne au gouvernement d’arrêter d’utiliser Anthropic dans la bataille sur l’utilisation de l’IA
Anthropic menace de poursuivre le Pentagone pour le label de risque dans la chaîne d’approvisionnement
Intelligence artificielle
Militaire
Donald Trump