Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic obtiene una orden de restricción preliminar en la pelea con el DOD, ya que el juez cita 'represalia por la Primera Enmienda'
El CEO y cofundador de Anthropic, Dario Amodei, habla en el escenario durante la Cumbre Dealbook del New York Times 2025 en Jazz at Lincoln Center el 3 de diciembre de 2025 en la ciudad de Nueva York.
Michael M. Santiago | Getty Images
Un juez federal en San Francisco concedió la solicitud de Anthropic de una medida cautelar preliminar en su demanda contra la administración Trump.
La jueza Rita Lin emitió la resolución el jueves, dos días después de que los abogados de la startup de inteligencia artificial y del gobierno de EE. UU. comparecieran en una audiencia. Anthropic demandó a la administración para intentar revertir su lista negra por parte del Pentágono y la directiva del presidente Donald Trump que prohíbe a las agencias federales usar sus modelos Claude.
Anthropic solicitó la medida cautelar para detener esas acciones y evitar más daños económicos y de reputación mientras avanza el caso.
Anthropic emitió la siguiente declaración sobre la resolución: “Agradecemos al tribunal por actuar con rapidez y nos complace que esté de acuerdo en que Anthropic probablemente tendrá éxito en los méritos. Aunque este caso fue necesario para proteger a Anthropic, a nuestros clientes y socios, nuestro enfoque sigue siendo trabajar de manera productiva con el gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y confiable.”
“Castigar a Anthropic por exponer públicamente la posición del gobierno en los contratos es una represalia ilegal clásica bajo la Primera Enmienda”, escribió la jueza Lin en la orden. Una sentencia final en el caso aún podría tardar meses.
Durante la audiencia del martes, Lin preguntó a los abogados del gobierno por qué Anthropic fue incluido en la lista negra. Su lenguaje en la orden fue aún más contundente.
“Nada en la ley que rige respalda la noción orwelliana de que una empresa estadounidense puede ser etiquetada como posible adversario y saboteador de EE. UU. por expresar desacuerdo con el gobierno”, escribió.
La demanda de Anthropic siguió a unas semanas dramáticas en Washington D.C., entre el Departamento de Defensa y una de las empresas privadas más valiosas del mundo.
En una publicación en X a finales de febrero, el Secretario de Defensa, Pete Hegseth, declaró a Anthropic como un riesgo en la cadena de suministro, lo que significa que el uso de la tecnología de la compañía supuestamente amenaza la seguridad nacional de EE. UU. El DOD notificó oficialmente a Anthropic sobre esta designación en una carta a principios de este mes.
Anthropic es la primera empresa estadounidense en ser nombrada públicamente como riesgo en la cadena de suministro, ya que esta designación ha sido históricamente reservada para adversarios extranjeros. La etiqueta requiere que los contratistas de defensa, incluyendo Amazon, Microsoft y Palantir, certifiquen que no usan Claude en su trabajo con el ejército.
Leer más noticias tecnológicas de CNBC
La administración Trump basó su acción en dos designaciones distintas: 10 U.S.C. § 3252 y 41 U.S.C. § 4713, y estas deben ser impugnadas en dos tribunales diferentes. Por ello, Anthropic ha presentado otra demanda para una revisión formal de la determinación del Departamento de Defensa en la Corte de Apelaciones de EE. UU. en Washington.
Justo antes de que Hegseth declarara a Anthropic como riesgo en la cadena de suministro, el presidente Donald Trump escribió en Truth Social una publicación ordenando a las agencias federales que “cesen inmediatamente” todo uso de la tecnología de Anthropic. Dijo que habría un período de transición de seis meses para agencias como el DOD.
“Decidiremos el destino de nuestro país — NO alguna empresa de IA radical y fuera de control dirigida por personas que no tienen idea de qué trata el mundo real”, escribió Trump.
Las acciones de la administración Trump sorprendieron a muchos funcionarios en Washington que habían llegado a admirar y confiar en la tecnología de Anthropic. La compañía fue la primera en desplegar sus modelos en las redes clasificadas del DOD y fue respaldada por su capacidad para integrarse con contratistas de defensa existentes como Palantir.
Anthropic firmó un contrato de 200 millones de dólares con el Pentágono en julio, pero cuando comenzó a negociar el despliegue de Claude en la plataforma de IA GenAI.mil del DOD en septiembre, las conversaciones se estancaron.
El DOD quería que Anthropic otorgara acceso sin restricciones a sus modelos para todos los propósitos legales, mientras que Anthropic buscaba garantías de que su tecnología no sería utilizada para armas totalmente autónomas ni vigilancia masiva doméstica.
No lograron llegar a un acuerdo y ahora, la disputa se resolverá en los tribunales.
“Todos, incluyendo a Anthropic, están de acuerdo en que el Departamento de Defensa es libre de dejar de usar Claude y buscar un proveedor de IA más permisivo”, dijo Lin durante la audiencia del martes. “No veo que esto sea lo que trata este caso. La cuestión en este caso es muy diferente, que es si el gobierno violó la ley.”
ver ahora
VIDEO3:1203:12
La jueza dice que las acciones del Pentágono parecen dirigidas a paralizar a Anthropic
Cierre de mercado: Tiempo extra
Elige CNBC como tu fuente preferida en Google y no te pierdas ningún momento de la fuente más confiable en noticias de negocios.