Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
#AnthropicSuesUSDefenseDepartment
Anthropic demanda al Departamento de Defensa de EE. UU. ¿Por qué la demanda es un gran asunto?
Qué ocurrió y quién está involucrado
La empresa de inteligencia artificial Anthropic, conocida por construir el modelo Claude AI, ha presentado una demanda importante contra el Departamento de Defensa de Estados Unidos y agencias gubernamentales relacionadas, incluyendo bajo la administración Trump, tras una disputa sobre cómo debería usarse su tecnología. Esta acción legal fue anunciada el lunes 9 de marzo de 2026 y marca uno de los conflictos legales más destacados entre una empresa privada de IA y el gobierno de EE. UU. hasta la fecha.
La demanda desafía una decisión reciente del Departamento de Defensa de designar a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta rara que casi nunca se usa contra empresas estadounidenses, lo que efectivamente pone en lista negra a Anthropic de contratos de defensa y presiona a los contratistas para que corten vínculos con ella. Anthropic argumenta que esta designación es ilegal, sin precedentes y retaliatoria, y que viola sus derechos constitucionales, incluyendo la libertad de expresión y las protecciones del debido proceso.
Por qué Anthropic fue etiquetada como riesgo y disputa contractual
El conflicto surge de una ruptura en las negociaciones entre Anthropic y el Departamento de Defensa sobre cómo el Pentágono podría usar su sistema Claude AI. Anthropic insistió en mantener fuertes salvaguardas éticas, lo que significa que se negó a permitir que su IA fuera utilizada para ciertos fines militares, incluyendo la vigilancia masiva de estadounidenses o el desarrollo de sistemas de armas totalmente autónomas sin supervisión humana. La dirección de Anthropic consideraba que tal uso era peligroso y más allá de lo que su enfoque centrado en la seguridad de la IA debería permitir.
En respuesta, funcionarios de Defensa, liderados públicamente por el Secretario Pete Hegseth, exigieron que Anthropic permitiera usos “legales” más amplios de su tecnología, amenazando con acciones punitivas si la empresa no cumplía. Cuando Anthropic mantuvo su postura, el Pentágono decidió etiquetarla como un riesgo en la cadena de suministro bajo las reglas de seguridad nacional de EE. UU., una designación generalmente reservada para entidades vinculadas a adversarios extranjeros, no a empresas tecnológicas con sede en EE. UU. Esta designación significa que el Pentágono y sus contratistas ya no pueden usar ni asociarse con Anthropic para trabajos de defensa.
El presidente Donald Trump apoyó públicamente la acción, ordenando a las agencias federales que dejaran de usar Claude en un plazo de seis meses, lo que intensificó el impacto de la decisión del Pentágono. Los partidarios del enfoque militar argumentaron que el gobierno debe mantener flexibilidad sobre cómo se despliega la IA para la defensa nacional, mientras que los críticos argumentaron que la medida excedió la autoridad legal y que injustamente se dirigió a una empresa por sus políticas internas de seguridad.
Argumentos legales en la demanda
La demanda de Anthropic fue presentada en un tribunal federal en California y en la corte de apelaciones federal en Washington, D.C., y hace varias reclamaciones legales amplias:
• Retaliación ilegal: Anthropic afirma que las acciones del gobierno equivalen a una retaliación por su postura ética sobre el uso de la IA, castigando efectivamente a la empresa por negarse a debilitar sus salvaguardas.
• Violación de derechos constitucionales: La demanda argumenta que la designación del Departamento de Defensa viola los derechos de la Primera Enmienda de (libertad de expresión) y las protecciones del debido proceso, porque el gobierno utilizó una etiqueta punitiva no autorizada por una autoridad legal clara.
• Amenaza a los negocios y la innovación: Al cortar contratos federales y provocar que otras agencias y contratistas dejen de trabajar con Anthropic, la designación amenaza la reputación, los ingresos y el crecimiento futuro de la empresa. Anthropic dice que podría sufrir daños financieros significativos a medida que los socios federales reconsideren contratos.
Esta estrategia legal desafía no solo la acción específica, sino también la idea más amplia de cómo el poder del gobierno puede usarse contra empresas privadas por desacuerdos políticos. Los líderes de Anthropic y muchos expertos en IA argumentan que permitir que el gobierno incluya en listas negras a una empresa de IA estadounidense por principios éticos podría sentar un peligroso precedente para la innovación futura y la autonomía corporativa.
Reacciones de la industria y legales
La demanda ha atraído una atención significativa de la comunidad tecnológica y de investigación en IA. Algunos ejecutivos y expertos de otras grandes empresas de IA, incluyendo personas relacionadas con compañías como Google DeepMind y OpenAI, han presentado o expresado apoyo mediante informes legales en respaldo del desafío de Anthropic, advirtiendo que la designación de riesgo en la cadena de suministro del Pentágono podría frenar la innovación y establecer un precedente preocupante para la industria.
Los analistas legales también han destacado que esta es la primera vez que una empresa de IA con sede en EE. UU. ha sido sometida a una etiqueta de seguridad nacional de este tipo, planteando importantes preguntas sobre la autoridad del gobierno, la política de defensa nacional y los derechos corporativos. Existe un debate en curso sobre si el Departamento de Defensa excedió su autoridad legal y si un tribunal federal aceptará bloquear la designación o anularla por completo.
Implicaciones más amplias y lo que está en juego
El resultado de esta demanda podría tener implicaciones de largo alcance sobre cómo las empresas de IA negocian contratos con el gobierno en el futuro, cuánto control conservan sobre el uso de su tecnología y cómo los intereses de seguridad nacional se intersectan con las libertades civiles, especialmente en relación con la vigilancia masiva y el desarrollo de armas autónomas.
El caso de Anthropic también destaca un cambio mayor en la industria: los desarrolladores de IA enfrentan cada vez más preguntas éticas y regulatorias sobre cómo se usan sus tecnologías, no solo sobre cómo funcionan. Las empresas que construyen sistemas de IA potentes están siendo presionadas para considerar el impacto moral y social de su trabajo, que ahora se cruza con la política de defensa nacional de maneras sin precedentes.
Mientras tanto, Anthropic continúa buscando remedios legales, solicitando que se revierta o bloquee la etiqueta de riesgo en la cadena de suministro y las directivas asociadas, mientras enfatiza que su IA Claude sigue comprometida con un uso ético y responsable en contextos civiles y comerciales. La demanda está en curso, y los tribunales jugarán un papel central en determinar hasta qué punto se extiende la autoridad del gobierno en la era de la inteligencia artificial avanzada.