Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La empresa de IA Anthropic demanda a la administración Trump buscando revertir la designación de 'riesgo en la cadena de suministro'
La empresa de inteligencia artificial Anthropic está demandando para detener al gobierno de Trump de hacer cumplir lo que llama una “campaña ilegal de represalias” por su negativa a permitir el uso militar sin restricciones de su tecnología.
Anthropic solicitó a los tribunales federales el lunes que reviertan la decisión del Pentágono de la semana pasada de designar a la empresa de inteligencia artificial como un “riesgo en la cadena de suministro”. La compañía también busca anular la orden del presidente Donald Trump que instruía a los empleados federales a dejar de usar su chatbot de IA, Claude.
El desafío legal intensifica una disputa públicamente inusual sobre cómo se puede usar la IA en la guerra y la vigilancia masiva — una que también ha involucrado a rivales de la industria tecnológica, particularmente a OpenAI, creador de ChatGPT, que hizo su propio acuerdo para trabajar con el Pentágono apenas horas después de que el gobierno castigara a Anthropic por su postura.
Anthropic presentó dos demandas separadas el lunes, una en un tribunal federal de California y otra en la corte de apelaciones federal en Washington, D.C., cada una desafiando diferentes aspectos de las acciones del gobierno contra la empresa con sede en San Francisco.
“Estas acciones son sin precedentes e ilegales,” dice la demanda de Anthropic. “La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido. Ningún estatuto federal autoriza las acciones tomadas aquí. Anthropic recurre a la justicia como último recurso para hacer valer sus derechos y detener la campaña ilegal de represalias del Ejecutivo.”
El Departamento de Defensa se negó a comentar el lunes, citando una política de no comentar sobre asuntos en litigio.
Anthropic afirmó que buscaba restringir el uso de su tecnología para la vigilancia masiva de estadounidenses y armas completamente autónomas. El secretario de Defensa, Pete Hegseth, y otros altos funcionarios insistieron públicamente en que la compañía debe aceptar “todos los usos legales” de Claude, amenazaron con castigos si Anthropic no cumplía y condenaron a la firma y a su CEO Dario Amodei en las redes sociales.
Designar a la empresa como un riesgo en la cadena de suministro corta el trabajo de defensa de Anthropic usando una autoridad diseñada para prevenir que adversarios extranjeros dañen los sistemas de seguridad nacional. Es la primera vez que se sabe que el gobierno federal ha utilizado esa designación contra una empresa estadounidense. Hegseth escribió en una carta del 4 de marzo a Anthropic que era “necesario para proteger la seguridad nacional,” según la demanda de Anthropic.
Trump también dijo que ordenaría a las agencias federales dejar de usar a Claude, aunque dio al Pentágono seis meses para eliminar un producto que está profundamente integrado en sistemas militares clasificados, incluyendo los utilizados en la guerra de Irán.
La demanda de Anthropic también nombra a otras agencias federales, incluyendo los departamentos del Tesoro y de Estado, después de que funcionarios de esas agencias ordenaron a los empleados dejar de usar a Claude.
Anthropic presenta varios argumentos sólidos basados en la Primera Enmienda y el debido proceso en un caso que “ha escalado más allá de la comprensión,” dijo Michael Pastor, profesor en la Facultad de Derecho de Nueva York, quien anteriormente trabajó como asesor general de la ciudad de Nueva York ayudando a redactar sus contratos tecnológicos.
“Nunca había visto un caso así,” dijo Pastor. “Nunca se nos habría ocurrido que, en medio de una negociación difícil, amenazaríamos a la empresa con destrucción esencialmente.”
Mientras lucha contra las acciones del Pentágono, Anthropic ha tratado de convencer a empresas y otras agencias gubernamentales de que la designación de riesgo en la cadena de suministro del gobierno de Trump es una medida limitada que solo afecta a contratistas militares cuando usan Claude en trabajos para el Departamento de Defensa.
Hacer esa distinción es crucial para Anthropic, que es privada, porque la mayor parte de sus ingresos proyectados de 14 mil millones de dólares este año proviene de empresas y agencias gubernamentales que usan Claude para programación y otras tareas. Más de 500 clientes pagan a Anthropic al menos 1 millón de dólares anuales por Claude, según un anuncio de inversión reciente que valoró a la compañía en 380 mil millones de dólares.
Anthropic afirmó en un comunicado el lunes que “buscar revisión judicial no cambia nuestro compromiso de largo plazo de usar la IA para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios.”
La demanda posiciona la seguridad de la IA y “resultados positivos para la humanidad” como fundamentales para la misión de Anthropic desde su fundación en 2021 por Amodei y otros seis ex empleados de OpenAI.
Su política de uso siempre prohibió “la guerra autónoma letal sin supervisión humana y la vigilancia masiva de estadounidenses,” dijo la compañía en su demanda. Anthropic afirmó que nunca ha probado a Claude en esas aplicaciones y no confía en que sus productos puedan “funcionar de manera confiable o segura si se usan para apoyar guerras autónomas letales.”
Al mismo tiempo, ha permitido que el ejército use a Claude en formas que los civiles no pueden, incluyendo operaciones militares y en el análisis de “información de inteligencia extranjera legalmente recopilada.”
Hasta hace poco, Anthropic era la única de sus pares en la industria tecnológica autorizada para suministrar su modelo de IA a sistemas militares clasificados. La disputa ha llevado al Pentágono a considerar trasladar el trabajo de Claude a Google Gemini, OpenAI ChatGPT y Grok de Elon Musk.
La demanda de Anthropic alega que las acciones de la administración Trump están dañando su reputación, “poniendo en riesgo cientos de millones de dólares” en contratos con otras empresas y tratando de “destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento en el mundo.”
Por otro lado, la lucha ha elevado la reputación de Anthropic entre algunos clientes y trabajadores tecnológicos que apoyaron la negativa de la compañía a ceder ante la presión de la administración Trump. La postura moral de Amodei se distinguió aún más cuando su rival acérrimo, el CEO de OpenAI, Sam Altman, intentó reemplazar a Claude en el Pentágono con ChatGPT en un movimiento que luego admitió fue apresurado y oportunista.
Las descargas de Claude por parte de los consumidores aumentaron, elevando su popularidad por primera vez por encima de ChatGPT y Gemini.
La forma en que las empresas establecen límites también sigue teniendo repercusiones en la competencia por retener talento en la industria de IA. La jefa de robótica de OpenAI, Caitlin Kalinowski, renunció por el acuerdo de OpenAI con el Pentágono.
“No fue una decisión fácil,” escribió Kalinowski en las redes sociales el fin de semana. “La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron.”
Un grupo de más de 30 desarrolladores líderes en IA, incluyendo al científico jefe de Google y director de división de investigación en IA, Jeff Dean, presentó un informe legal el lunes apoyando a Anthropic.
“La seguridad nacional no se sirve con designaciones imprudentes de los socios tecnológicos militares estadounidenses como un ‘riesgo en la cadena de suministro’ ni con la supresión del discurso público sobre la seguridad de la IA,” dijo el documento, firmado por los trabajadores en su capacidad personal.