Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El juez bloquea al Pentágono de catalogar a Anthropic como una amenaza a la seguridad nacional
En breve
Un juez federal ha bloqueado al Pentágono de etiquetar a Anthropic como un riesgo de cadena de suministro, fallando el jueves que la campaña del gobierno contra la empresa de IA violó sus derechos de la Primera Enmienda y el debido proceso.
La jueza del Distrito de EE. UU. Rita Lin emitió una orden judicial preliminar del Distrito Norte de California dos días después de escuchar los argumentos orales de ambas partes, en un caso que los observadores dicen que fue inevitable por la propia documentación del gobierno.
“Nada en el estatuto vigente apoya la noción orwelliana de que una empresa estadounidense puede ser etiquetada como un posible adversario y saboteador de EE. UU. por expresar desacuerdo con el gobierno,” escribió la jueza Lin.
El registro interno fue fatal para el caso del gobierno, según Andrew Rossow, abogado de asuntos públicos y CEO de AR Media Consulting, quien le dijo a Decrypt que la designación fue “activada por la conducta de la prensa, no por un análisis de seguridad.”
"El gobierno esencialmente escribió su propio motivo, y fue represalia,” dijo Rossow.
La disputa se centra en un contrato de dos años, por 200 millones de dólares, otorgado a Anthropic en julio de 2025 por la Oficina de Inteligencia Digital y Artificial del Departamento de Guerra.
Las negociaciones para desplegar a Claude en la plataforma GenAI.Mil del departamento se rompieron después de que ambas partes no lograran acordar restricciones de uso.
Anthropic insistió en dos condiciones: que Claude no se utilizara para vigilancia masiva de estadounidenses ni para uso letal en guerra autónoma, argumentando que el modelo aún no era seguro para ninguno de los dos propósitos.
En una reunión del 24 de febrero, el Secretario de Guerra Pete Hegseth le dijo a los representantes de Anthropic que si la empresa no levantaba sus restricciones para el 27 de febrero, el departamento la designaría de inmediato como un riesgo de cadena de suministro.
Anthropic se negó a cumplir.
El mismo día, el presidente Trump publicó una directiva en Truth Social ordenando a cada agencia federal que “cesara inmediatamente” el uso de la tecnología de la empresa, llamando a Anthropic una “empresa radical de izquierda y woke.”
Un poco más de una hora después, Hegseth describió la postura de Anthropic como una "clase magistral en arrogancia y traición,” ordenando que ningún contratista que haga negocios con el ejército puede realizar actividades comerciales con la firma. La designación formal de riesgo de cadena de suministro fue seguida por una carta el 3 de marzo.
Anthropic demandó al gobierno el 9 de marzo, alegando violaciones de la Primera Enmienda, debido proceso y la Ley de Procedimiento Administrativo.
“Castigar a Anthropic por someter a escrutinio público la posición de contratación del gobierno es una clásica represalia ilegal bajo la Primera Enmienda,” escribió la jueza Lin en la orden del jueves.
La orden, que fue suspendida por siete días, bloquea las tres acciones del gobierno, requiere un informe de cumplimiento para el 6 de abril y restaura el estado anterior a los eventos del 27 de febrero.
Arma de la ley
La designación de ser un “riesgo de cadena de suministro” ha sido históricamente reservada para agencias de inteligencia extranjeras, terroristas y otros actores hostiles.
Nunca se había aplicado a una empresa nacional antes de Anthropic. Los contratistas de defensa comenzaron a evaluar y en muchos casos a terminar su dependencia de Anthropic en las semanas que siguieron, señaló la orden de la jueza Lin.
Y la postura del gobierno podría tener consecuencias imprevistas, argumentan los expertos.
De hecho, la decisión del jueves podría empujar a las empresas de IA “a formalizar barreras éticas al trabajar con gobiernos,” dijo Pichapen Prateepavanich, estratega de políticas y fundadora de la firma de infraestructura Gather Beyond, a Decrypt.
Hasta cierto punto, la decisión también sugiere que las empresas “pueden establecer límites claros de uso sin activar automáticamente una acción regulatoria punitiva,” dijo.
Pero esto “no elimina la tensión,” agregó. Lo que la decisión limita es “la capacidad de escalar ese desacuerdo a una exclusión más amplia o etiquetado que parezca represaliador.”
Aún así, la aplicación de la autoridad estatutaria actual para designar a una empresa como un riesgo de cadena de suministro “porque se negó a eliminar las barreras de seguridad” no es una extensión del estatuto de riesgo de cadena de suministro, explicó Rossow. En cambio, opera como una “arma” de la ley.
“Esto es parte de un patrón continuo de comportamiento por parte de la Casa Blanca cada vez que son desafiados, resultando en amenazas desproporcionadas, impulsadas por emociones y sesgadas, y extorsión gubernamental,” agregó.
Si se acepta la “teoría” del gobierno, crearía un precedente “peligroso” en el que las empresas de IA pueden ser incluidas en listas negras por políticas de seguridad que al gobierno no le gustan, “antes de que ocurra algún daño,” sin debido proceso, bajo el lema de seguridad nacional, dijo Rossow.
Boletín de Resumen Diario
Comienza cada día con las principales noticias en este momento, además de características originales, un pódcast, videos y más.
Tu correo electrónico
¡Consíguelo!
¡Consíguelo!