Juiz Federal Impede o Pentágono de Rotular a Anthropic como uma Ameaça à Segurança Nacional

Coinpedia

Na semana passada, um juiz federal em São Francisco bloqueou o Pentágono e a administração Trump de impor uma designação de segurança nacional contra a Anthropic, a empresa de inteligência artificial (IA) que se recusou a remover restrições de segurança dos seus modelos Claude.

Tribunal Suspende Proibição da Administração Trump sobre a IA Claude da Anthropic para Agências Federais

A juíza do Tribunal de Distrito dos EUA, Rita F. Lin, emitiu a liminar preliminar em 26 de março, considerando que as ações do governo contra a Anthropic provavelmente violavam a Primeira Emenda, negavam à empresa o devido processo e excediam a autoridade estatutária sob a Lei de Procedimento Administrativo. A decisão permanece suspensa por sete dias, dando à administração até aproximadamente 2 de abril para apresentar um recurso de emergência ao Nono Circuito.

A disputa começou quando o Departamento de Defesa (DoD) buscou acesso irrestrito ao Claude para uso federal. A Anthropic manteve, durante muito tempo, duas exceções na sua política de uso aceitável: Claude não seria usado para vigilância doméstica em massa de cidadãos americanos ou para sistemas de armas autónomas letais operando sem supervisão humana significativa. O DoD exigiu que essas salvaguardas fossem removidas. A Anthropic recusou.

As negociações fracassaram no final de 2025. O conflito tornou-se público através de declarações escritas do CEO Dario Amodei e um ensaio que delineava a posição da empresa sobre a segurança da IA. Os oficiais do DoD viam as restrições como uma tentativa da Anthropic de ditar a política governamental.

Em 27 de fevereiro de 2026, o presidente Trump publicou no Truth Social, direcionando todas as agências federais a interromper imediatamente o uso da tecnologia da Anthropic, com um período de descontinuação de seis meses. O Secretário da Defesa Pete Hegseth anunciou uma designação de risco de cadeia de suprimentos sob 10 U.S.C. § 3252 — um estatuto anteriormente aplicado a adversários estrangeiros — rotulando a Anthropic como um potencial risco de “sabotagem” e “subversão.”

Vários contratantes federais suspenderam ou rescindiram acordos com a empresa após a designação. A Anthropic respondeu e entrou com uma ação em 9 de março no Distrito Norte da Califórnia, alegando retaliação, violações do devido processo e infrações da APA. Uma ação relacionada foi apresentada no Circuito de D.C.

Num despacho de 43 páginas, a juíza Lin proibiu o DoD, 17 outras agências federais e o Secretário Hegseth de implementar ou fazer cumprir qualquer uma das ações contestadas. Ela ordenou a restauração do status quo, permitindo que a Anthropic continuasse a executar contratos e parcerias federais existentes.

Lin escreveu que a conduta do governo representava “retaliação clássica ilegal da Primeira Emenda.” Ela observou que o timing das ações, juntamente com comunicações internas do governo que faziam referência à “retórica” da Anthropic, “arrogância” e “coação”, apontavam diretamente para uma intenção punitiva ligada às declarações públicas da empresa sobre a segurança da IA.

Sobre o devido processo, o tribunal constatou que o governo havia privado a Anthropic de interesses de liberdade em sua reputação e operações comerciais sem fornecer aviso prévio ou uma audiência. Lin também constatou que a designação estatutária nunca tinha sido aplicada a uma empresa americana nessas circunstâncias e que a verificação governamental anterior da Anthropic.

Isso inclui autorizações de Top Secret, autorização do FedRAMP e contratos no valor de até 200 milhões de dólares — não mostraram nenhuma preocupação genuína de segurança. “Nada no estatuto regulador apoia a noção orwelliana de que uma empresa americana pode ser rotulada como um potencial adversário e sabotador dos EUA por expressar desacordo com o governo,” escreveu Lin.

O tribunal encontrou um potencial dano financeiro para a Anthropic na casa das centenas de milhões a bilhões de dólares, juntamente com danos reputacionais que a reparação monetária não poderia reparar totalmente. Os pareceres de Amici de líderes militares e pesquisadores de IA citavam riscos para a prontidão de defesa e o debate mais amplo sobre a segurança da IA.

A Anthropic disse estar grata pela rapidez do tribunal e que planejava continuar a trabalhar com o governo federal. A empresa afirmou que seu objetivo permanecia garantir que os americanos tivessem acesso a uma IA segura e fiável.

A liminar não resolve a disputa contratual subjacente. Nenhuma decisão final sobre os méritos foi emitida. Um desafio separado no Circuito de D.C. permanece pendente, e a administração mantém a opção de apelar.

Perguntas Frequentes 🔎

  • O que decidiu o juiz federal sobre a Anthropic? A juíza do Tribunal de Distrito dos EUA, Rita F. Lin, emitiu uma liminar preliminar em 26 de março, bloqueando o Pentágono e a administração Trump de aplicar uma designação de segurança nacional e uma proibição federal contra a Anthropic e seus modelos de IA Claude.
  • Por que o Pentágono designou a Anthropic como risco de cadeia de suprimentos? O DoD buscou uso irrestrito da IA Claude, incluindo vigilância em massa e armas autónomas, e rotulou a Anthropic como um risco de cadeia de suprimentos após a empresa se recusar a remover essas restrições de segurança.
  • A liminar está atualmente em vigor? A liminar está suspensa por sete dias a partir de 26 de março para permitir que o governo apresente um recurso de emergência, o que significa que não entra em vigor até aproximadamente 2 de abril de 2026.
  • O que acontece a seguir no caso Anthropic vs. Pentágono? O caso continua com seus méritos, uma ação relacionada permanece pendente no Circuito de D.C., e a administração Trump pode buscar alívio de emergência do Nono Circuito antes que a suspensão expire.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário