Le juge a dénoncé les violations constitutionnelles par l'armée américaine ! Il demande l'annulation de l'étiquette de risque de chaîne d'approvisionnement d'Anthropic, rapport à soumettre avant le 6 avril.

CryptoCity

Un juge fédéral bloque temporairement le Pentagone de mettre Anthropic sur liste noire, considérant cela comme une représaille inconstitutionnelle, le plan d’introduction en bourse de 380 milliards de dollars de la géante de l’IA se poursuit.

Une décision judiciaire frappe le Pentagone, le juge fustige une étiquette “orwellienne” violant la Constitution

L’industrie de l’IA américaine vient de connaître une victoire judiciaire emblématique. La juge fédérale de Californie, Rita Lin, a émis jeudi dernier (26/03) une ordonnance de restriction préliminaire empêchant le gouvernement de Trump de placer la géante de l’IA Anthropic sur la liste noire des risques de chaîne d’approvisionnement. Cette décision remet directement en question l’ordre exécutif du Pentagone et du secrétaire à la Défense, Pete Hegseth, le juge soulignant dans son jugement que le gouvernement étiquetant une entreprise américaine comme un “adversaire potentiel” et “saboteur” est hautement ironique.

Rita Lin a souligné que le cadre juridique actuel ne soutient pas cette logique administrative “orwellienne”. Le système administratif considère qu’une entreprise exprimant une position différente de celle du gouvernement constitue une menace pour la sécurité nationale, ce qui dépasse manifestement les limites de son autorisation. Le tribunal exige que le gouvernement fédéral cesse immédiatement d’appliquer les restrictions concernées et soumette un rapport de conformité avant le 6 avril, expliquant comment il mettra en œuvre la levée de l’ordonnance.

Le cœur de cette bataille juridique implique de savoir si le gouvernement utilise le prétexte de la sécurité nationale pour répliquer à des discours. Selon les informations révélées par le tribunal, le département de la Défense (ou le ministère de la Guerre) a pris des mesures contre Anthropic principalement sur la base des déclarations publiques de l’entreprise dans les médias, sans avoir effectué d’évaluation rigoureuse de la sécurité technique. Le juge a noté que punir Anthropic suscite des préoccupations publiques concernant la position du gouvernement sur les contrats, ce qui constitue un acte de représailles violant le premier amendement de la Constitution. Lors d’une audience mardi à San Francisco, Rita Lin a remis en question le faible seuil du gouvernement pour définir une entreprise comme une “menace”.

Elle a estimé que si le Pentagone avait des doutes sur le contrôle technique, il pourrait simplement cesser d’utiliser le modèle Claude, et qu’il n’était pas approprié d’appliquer une étiquette de “risque de chaîne d’approvisionnement” avec des connotations humiliantes et destructrices. Cette décision a temporairement rétabli la position de collaboration d’Anthropic avec les entrepreneurs fédéraux, établissant un parapluie juridique pour les futures entreprises d’IA face à la pression gouvernementale.

Refusant de devenir une machine de guerre, Anthropic subit des représailles pour son engagement en faveur de l’éthique de l’IA

Pour comprendre l’origine de ce conflit, il faut remonter à un contrat de 200 millions de dollars signé entre Anthropic et le Pentagone en juillet 2025. À l’époque, les deux parties avaient convenu que Claude serait le premier modèle d’IA de pointe autorisé à fonctionner sur un réseau classifié.

Cependant, la relation de collaboration a pris fin en février 2026. Le département de la Défense a tenté de renégocier les termes du contrat, exigeant qu’Anthropic lève toutes les restrictions, permettant à l’armée d’utiliser Claude pour tous les usages légaux. Anthropic, qui prône la sécurité de l’IA, a tenu bon et a refusé d’appliquer sa technologie à des systèmes d’armes autonomes létales ou à des activités de surveillance domestique à grande échelle visant les citoyens américains. Les dirigeants de l’entreprise estiment que les modèles d’IA actuels ne possèdent pas encore la sécurité et la précision suffisantes dans ces secteurs sensibles, et que les déployer sur le champ de bataille ou pour la surveillance entraînerait des conséquences désastreuses.

La situation a rapidement dégénéré, la réaction du système administratif montrant une forte coloration d’émotions personnelles. Le 24 février, le secrétaire à la Défense Hegseth a donné un ultimatum à Anthropic lors d’une réunion, menaçant de sanctions immédiates si les restrictions n’étaient pas levées. Après le refus d’Anthropic de faire des concessions, le président Trump a publiquement fustigé l’entreprise le 27 février sur Truth Social, la qualifiant de “gauche radicale, entreprise éveillée”, et l’a accusée de tenter d’intimider le ministère de la Défense, ordonnant ensuite à toutes les agences fédérales de cesser d’utiliser les produits d’Anthropic.

Peu après, Hegseth a qualifié la position d’Anthropic de “chef-d’œuvre d’arrogance et de trahison”, et a officiellement émis une étiquette de risque de chaîne d’approvisionnement. Cette mesure, qui était habituellement réservée aux agences de renseignement étrangères ou aux organisations terroristes, a été appliquée pour la première fois à une entreprise technologique américaine. Les experts estiment que cette militarisation des lois reflète l’impatience du système administratif face aux défis éthiques technologiques.

  • Actualités connexes : Sécurité nationale contre éthique : Anthropic refuse de lever les protections de sécurité de Claude, affrontement avec le département de la Défense des États-Unis

Le marché des capitaux émet un vote de confiance, la valorisation de 380 milliards de dollars de la géante avance dans son projet d’introduction en bourse en octobre

Malgré la tempête politique et juridique, Anthropic affiche une performance solide sur le marché des capitaux, démontrant une résilience remarquable. Selon des données de 2025, Anthropic détient une part de marché de 32 % dans le secteur de l’IA d’entreprise, devançant OpenAI qui est à 25 %, se plaçant ainsi en tête de l’industrie. Dans une récente levée de fonds de 30 milliards de dollars, cette étoile montante de l’IA a vu sa valorisation grimper à 380 milliards de dollars, cette levée étant dirigée par le fonds souverain MGX.

Dans le même temps, des géants technologiques tels qu’Alphabet, Google, Amazon, Microsoft et Nvidia ont tous établi des partenariats solides avec Anthropic, cumulant des investissements et des transactions d’infrastructure s’élevant à plusieurs dizaines de milliards. Le soutien de ces géants de la Silicon Valley a fourni à Anthropic une base économique pour résister à la pression politique.

  • Actualités connexes : Anthropic poursuit le gouvernement en justice ! Accusant l’administration Trump de représailles en bloquant Claude, 37 chercheurs en IA apportent leur soutien

La dernière décision du tribunal a ouvert la voie à Anthropic vers le marché public. Des sources affirment qu’Anthropic accélère son projet d’introduction en bourse (IPO), qui pourrait être coté dès octobre 2026, avec des fonds levés dépassant 60 milliards de dollars. Actuellement, Goldman Sachs, JPMorgan et Morgan Stanley sont tous considérés comme des conseillers potentiels pour les souscripteurs.

Les experts juridiques soulignent que si l’interdiction de la liste noire du gouvernement reste en vigueur, cela réduira considérablement la part de marché d’Anthropic, saperait la confiance des investisseurs. Maintenant que le juge a déclaré l’interdiction inconstitutionnelle, cela protège les intérêts commerciaux de l’entreprise. Cela envoie également un message au marché : l’engagement des entreprises envers l’éthique de la sécurité de l’IA doit être protégé par la loi et ne devrait pas servir de prétexte à la répression gouvernementale.

Un centre de données de 5 milliards de dollars au Texas commence à être construit, les troupes de première ligne continuent d’utiliser Claude malgré l’interdiction

En dehors des batailles juridiques, l’expansion des infrastructures d’Anthropic ne s’arrête pas. Google prévoit de soutenir un projet de centre de données de 5 milliards de dollars au Texas, qu’il louera entièrement à Anthropic. Ce parc de 2 800 acres, géré par Nexus Data Centers, devrait fournir environ 500 mégawatts (MW) de capacité électrique d’ici fin 2026, suffisant pour alimenter 500 000 foyers, avec un potentiel d’expansion futur à 7,7 gigawatts (GW). Le site est idéalement situé à proximité des principaux pipelines de gaz naturel, pouvant utiliser des turbines à gaz sur site pour une alimentation autonome, garantissant une haute fiabilité de puissance pour l’IA. Ce projet d’infrastructure ambitieux démontre la volonté solide de l’industrie technologique d’investir dans les infrastructures à long terme pour l’IA.

De plus, selon des médias étrangers, des dépendances de chemin se sont installées au sein des forces armées américaines concernant le modèle Claude. Même après l’émission d’un ordre strict d’interdiction par la Maison Blanche, le Commandement central des États-Unis (CENTCOM) a continué d’utiliser le modèle d’IA d’Anthropic pour le soutien opérationnel lors d’actions aériennes récentes contre l’Iran. Cela met en lumière le décalage entre les politiques gouvernementales et les besoins des premières lignes.

  • Actualités connexes : Wall Street Journal : Après que Trump ait émis un ordre de blocage contre Anthropic, les frappes aériennes américaines en Iran dépendent toujours de Claude

Le département administratif l’a classé comme un risque en raison de ses positions politiques, tandis que les unités opérationnelles choisissent de s’y fier en raison de ses avantages techniques. Le démarrage du centre de données et son utilisation opérationnelle témoignent de l’importance d’Anthropic. Avec le tribunal rétablissant son statut de fournisseur fédéral, cette géante de l’IA continuera à évoluer dans l’équilibre entre l’éthique technique et les intérêts nationaux, tout en répondant aux éventuels appels gouvernementaux à venir.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire