Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Las demandas de Anthropic contra Trump remodelan la batalla entre la ética de la IA y la seguridad nacional
Anthropic ha iniciado importantes desafíos legales contra la administración Trump, marcando un momento crítico en cómo las empresas tecnológicas navegan en la intersección de la defensa nacional, el desarrollo de inteligencia artificial y las normas éticas. La confrontación revela una tensión creciente: a medida que las demandas gubernamentales de capacidades avanzadas de IA se aceleran, las empresas están trazando límites en los principios que aceptarán y en los que no comprometerán. Esto no es solo una disputa legal corporativa, sino una cuestión fundamental sobre quién controla la trayectoria de la IA y con qué fines.
La campaña de presión creciente de la administración Trump
El conflicto se intensificó rápidamente a finales de febrero y principios de marzo de 2026. La administración Trump ordenó a las agencias federales cesar toda relación con Anthropic, una medida drástica que afectaba los negocios de la compañía con el gobierno. Posteriormente, se dio un paso aún más agresivo: el Pentágono designó formalmente a Anthropic como un “riesgo en la cadena de suministro”, una designación generalmente reservada para empresas consideradas amenazas a la seguridad. Estas acciones crearon una campaña de presión coordinada que iba más allá de las decisiones habituales de adquisición.
El momento y la naturaleza de estas acciones sugerían algo más que una supervisión gubernamental estándar. Cuando Anthropic se negó a ceder, la compañía respondió con fuerza legal.
En el centro: visiones incompatibles sobre el papel de la IA
La disputa fundamental gira en torno a lo que Claude, el sistema de IA insignia de Anthropic, debería y no debería hacer. Anthropic apoya explícitamente las aplicaciones de seguridad nacional y reconoce las necesidades legítimas del Pentágono. Sin embargo, la compañía establece límites estrictos en dos aplicaciones específicas: la vigilancia masiva de ciudadanos estadounidenses y los sistemas de armas completamente autónomas que eliminan a los decisores humanos de decisiones críticas.
Esto no es obstinación; es una postura deliberada sobre la seguridad de la IA. La compañía cree que estos usos representan una frontera peligrosa donde la IA podría amplificar el poder gubernamental de maneras que amenazan los valores democráticos y la autonomía humana. Para Anthropic, colaborar en defensa nacional no significa rendirse a cualquier aplicación, sin importar las consecuencias.
Dos demandas desafían la narrativa
El 9 de marzo de 2026, Anthropic presentó dos demandas que desafían directamente la prohibición y la designación de riesgo en la cadena de suministro. El argumento legal es contundente: ninguna de estas acciones refleja preocupaciones genuinas de seguridad, sino que constituyen represalias por la negativa de Anthropic a comprometerse con la ética de la IA. Al enmarcar estas acciones regulatorias como punitivas en lugar de protectoras, Anthropic busca que un tribunal examine la autoridad gubernamental sobre el desarrollo de la IA.
Las implicaciones de estas demandas contra Trump van mucho más allá de los ingresos de Anthropic. El resultado pondrá a prueba si las empresas pueden resistir legalmente la presión del gobierno cuando esa resistencia se basa en principios éticos en lugar de intereses comerciales.
Lo que esto significa para la industria de la IA
Esta batalla legal indica que la competencia global en IA ha entrado en una fase nueva y más compleja. Durante años, la conversación se centraba en quién construiría los modelos más potentes más rápido. Ahora, se cruza con preguntas sobre seguridad nacional, gobernanza democrática y responsabilidad moral.
Si Anthropic prevalece, sentará un precedente de que las empresas pueden oponerse a órdenes ejecutivas cuando estas exigen aplicaciones éticamente problemáticas. Si la administración Trump gana, enviará un mensaje de que las reclamaciones de defensa nacional prevalecen sobre las posiciones éticas corporativas. De cualquier forma, la industria de la IA está recibiendo un aviso de que las reglas del juego están cambiando — y que la capacidad tecnológica por sí sola ya no determina la ventaja competitiva en una era en la que los gobiernos consideran la IA como infraestructura estratégica.
La intersección entre negocios, seguridad y ética nunca ha estado tan disputada.