Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic obtiene respaldo judicial para bloquear la orden de Trump de prohibir el uso de sus herramientas de IA
El enfrentamiento legal inicial avanza entre Anthropic y el Departamento de Defensa de Estados Unidos.
El jueves 26 de marzo, un juez federal en California dictaminó que las medidas de sanción que el gobierno de EE. UU. aplicó a la empresa de inteligencia artificial Anthropic habrían excedido sus competencias, y ordenó suspender temporalmente dichas acciones.
La jueza de distrito Rita F. Lin concedió la solicitud de medida cautelar temporal de Anthropic, ordenando pausar durante una semana las sanciones del gobierno contra la empresa, mientras el tribunal continúa con el caso. La jueza dijo:
Anteriormente, Anthropic sostuvo que el Departamento de Defensa de EE. UU. y el gobierno de Trump la incluyeron como “riesgo para la cadena de suministro” y ordenaron que las agencias gubernamentales detuvieran el uso de su tecnología, vulnerando los derechos de la empresa bajo la Primera Enmienda.
Punto de controversia: el conflicto surge por la limitación de uso con fines bélicos
Este enfrentamiento que se ha prolongado durante meses tiene su origen en que Anthropic se niega a permitir que el Departamento de Defensa use su modelo Claude para sistemas de armas letales totalmente autónomos o para la vigilancia masiva en el país.
A principios de este mes, Anthropic presentó una demanda. En el escrito, la empresa argumentó que el reconocimiento de riesgo para la cadena de suministro y otras medidas de sanción podrían causar a la empresa pérdidas de cientos de millones e incluso decenas de miles de millones de dólares. En la demanda, la empresa afirmó:
Por el momento, la medida cautelar temporal se mantendrá durante una semana, mientras el tribunal revisa el caso.
El resultado de este caso no solo se relaciona con los intereses comerciales de Anthropic, sino que también tendrá un efecto demostrativo más amplio sobre los límites del poder del gobierno para contratar servicios de inteligencia artificial, y sobre si las empresas tecnológicas pueden establecer restricciones de uso ético en los contratos.
Además, la decisión impactará directamente el plan del gobierno para que las agencias federales reemplacen a Claude. Dado que la tecnología de Anthropic ya está profundamente integrada en las operaciones del gobierno, el proceso de sustitución ya enfrentaba dificultades considerables.
El Departamento de Defensa de EE. UU. ya ha utilizado ampliamente Claude en operaciones militares, incluidas tareas como el análisis para la selección de objetivos y los ataques de misiles.
La jueza cuestiona la lógica del gobierno; se examinan las declaraciones del secretario de Defensa
Durante la audiencia, la jueza Lin mostró un claro escepticismo respecto a los argumentos del gobierno.
Le preguntó al abogado del gobierno, de forma insistente, que si el Departamento de Defensa puede terminar directamente la relación contractual con Anthropic, ¿por qué recurrir al mecanismo de reconocimiento de riesgo para la cadena de suministro? Y señaló de manera directa que “esto parece ser un medio deliberado para presionar a Anthropic”.
En cuanto al tema del secretario de Defensa Pete Hegseth, el abogado del gobierno argumentó que Hegseth publicó en redes sociales que cualquier contratista que tenga negocios con las fuerzas armadas estadounidenses no puede colaborar con Anthropic, pero que esa declaración no tiene efecto legal y, por tanto, no constituye el daño irreparable que la empresa alega en su demanda.
Cuando Lin preguntó al abogado del gobierno por qué Hegseth publicaría una declaración sin ningún fundamento legal, este señaló que no podía responder.
Lin también señaló que, por lo que parece, la serie de acciones del gobierno contra Anthropic no se basa en consideraciones concretas de seguridad nacional. Lin escribió en el fallo: