一名联邦法官已阻止五角大楼将Anthropic标记为供应链风险,周四裁定政府对这家人工智能公司的运动违反了其第一修正案和正当程序权利。 美国加州北区地方法院法官Rita Lin在听取双方口头辩论后,于两天内发布了初步禁令,观察人士表示,这一案件的发生是政府自身文件的必然结果。 “现行法规中没有任何内容支持将美国公司标记为潜在对手和破坏者的奥威尔式观点,因为该公司表达了与政府的不同意见,”Lin法官写道。
根据公共事务律师兼AR媒体咨询公司首席执行官Andrew Rossow的说法,内部记录对政府的案件是致命的,他告诉_Decrypt_,这一称谓是“由媒体行为触发的,而非安全分析”。 “政府本质上记录了自己的动机,那就是报复,”Rossow说。 争议集中在2025年7月国防部数字和人工智能办公室授予Anthropic的两年期2亿美元合同上。
与国防部的GenAI.Mil平台部署Claude的谈判因双方未能就使用限制达成一致而破裂。 Anthropic坚持两个条件:Claude不得用于对美国人的大规模监控或在自主战争中致命使用,认为该模型尚不安全用于这两种目的。 在2月24日的会议上,国防部长Pete Hegseth告诉Anthropic的代表,如果公司在2月27日前不撤销其限制,国防部将立即将其指定为供应链风险。 Anthropic拒绝遵守。 在同一天,特朗普总统在Truth Social上发布了一项指令,要求每个联邦机构“立即停止”使用该公司的技术,并称Anthropic为“激进的左翼觉醒公司”。 一个多小时后,Hegseth将Anthropic的立场描述为“傲慢和背叛的典范”,并命令与军方做生意的任何承包商不得与该公司进行商业活动。正式的供应链指定随后于3月3日通过信函发出。 Anthropic于3月9日起诉政府,指控违反第一修正案、正当程序和行政程序法。 “因为对政府的合同立场进行公开审查而惩罚Anthropic,是典型的非法第一修正案报复,”Lin法官在周四的命令中写道。
该命令暂停七天,阻止所有三项政府行动,要求在4月6日之前提交合规报告,并恢复到2月27日事件之前的状态。 法律武器化 被称为“供应链风险”的认定在历史上通常是保留给外国情报机构、恐怖分子和其他敌对行为者的。 在Anthropic之前,从未将其应用于国内公司。Lin法官的命令指出,国防承包商在此后的几周内开始评估并在许多情况下终止对Anthropic的依赖。 专家们认为,政府的姿态可能会产生不可预见的后果。 确实,周四的裁决可能会促使人工智能公司“在与政府合作时正式制定伦理护栏,”基础设施公司Gather Beyond的政策战略家兼创始人Pichapen Prateepavanich告诉_Decrypt_。 在某种程度上,该裁决还表明公司“可以设定明确的使用限制,而不会自动触发惩罚性监管行动,”她说。 但她补充道,这“并没有消除紧张关系”。裁决限制的是“将这种分歧升级为更广泛的排斥或标记,这看起来像是报复”。 尽管如此,Rossow解释说,因公司拒绝取消安全护栏而将其指定为供应链风险的当前法定授权的应用,并不是对供应链风险法规的扩展。相反,它被视为法律的“武器化”。
“这是白宫在面临挑战时持续行为模式的一部分,导致不成比例、情绪驱动和偏见的威胁以及政府敲诈,”他补充道。 如果政府的“理论”被接受,将会创造一个“危险”的先例,即人工智能公司可以因政府不喜欢的安全政策而被列入黑名单,“在任何伤害发生之前”,而且没有正当程序,借国家安全之名,Rossow说。