Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El CEO de Anthropic responde a la prohibición del Pentágono sobre uso militar
(MENAFN- Crypto Breaking) La política de defensa en torno a la inteligencia artificial se intensificó después de que el Departamento de Defensa de EE. UU. calificara a Anthropic como un “riesgo en la cadena de suministro”, prohibiendo efectivamente que sus modelos de IA participen en contratos de defensa. Dario Amodei, director ejecutivo de Anthropic, respondió en una entrevista con CBS News el sábado, diciendo que la compañía no apoyaría la vigilancia masiva doméstica ni armas completamente autónomas. Argumentó que tales capacidades socavan los derechos fundamentales estadounidenses y cederían la toma de decisiones sobre la guerra a las máquinas, una postura que aclara en qué ámbitos la empresa sí y no planea operar dentro de los casos de uso de IA del gobierno.
Puntos clave
Tics mencionados:
Sentimiento: Neutral
Contexto del mercado: El episodio se sitúa en la intersección de la gobernanza de IA, adquisición de defensa y apetito por el riesgo entre proveedores tecnológicos institucionales en medio de debates políticos en curso.
Contexto del mercado: La política de seguridad nacional, consideraciones de privacidad y la fiabilidad de los sistemas de IA autónoma siguen moldeando cómo interactúan los proveedores tecnológicos y contratistas de defensa con las herramientas de IA en entornos sensibles, influyendo en el sentimiento tecnológico y de inversión en sectores relacionados.
Por qué importa
Para las comunidades de criptomonedas y tecnología en general, el episodio de Anthropic subraya cómo la política, la gobernanza y la confianza configuran la adopción de herramientas avanzadas de IA. Si las agencias de defensa refuerzan controles sobre ciertos proveedores, los vendedores podrían reajustar sus hojas de ruta, modelos de riesgo y marcos de cumplimiento. La tensión entre ampliar las capacidades de IA y proteger las libertades civiles resuena más allá de los contratos de defensa, influyendo en cómo los inversores institucionales evalúan la exposición a plataformas impulsadas por IA, servicios de procesamiento de datos y cargas de trabajo de IA nativas en la nube utilizados por sectores financieros, de juegos y activos digitales.
La insistencia de Amodei en establecer límites refleja una demanda más amplia de responsabilidad y transparencia en el desarrollo de IA. Aunque la industria compite por desplegar modelos más capaces, la discusión sobre qué usos son aceptables—especialmente en vigilancia y guerra automatizada—permanece abierta. Esta dinámica no se limita a la política de EE. UU.; gobiernos aliados también examinan estas cuestiones, lo que podría afectar colaboraciones transfronterizas, términos de licencias y controles de exportación. En ecosistemas de criptomonedas y blockchain, donde la confianza, la privacidad y la gobernanza ya son preocupaciones centrales, cualquier cambio en la política de IA puede repercutir en análisis en cadena, herramientas de cumplimiento automatizado y aplicaciones de identidad descentralizada.
Desde una perspectiva de estructuración de mercado, la comparación entre la postura de Anthropic y el contrato de OpenAI—reportado poco después del anuncio del DoD—ilustra cómo diferentes proveedores navegan en el mismo terreno regulatorio. La narrativa pública en torno a estos desarrollos podría influir en cómo los inversores valoran el riesgo asociado a los proveedores de tecnología habilitada por IA y a los proveedores que suministran infraestructura crítica a redes gubernamentales. El episodio también destaca el papel de los medios en amplificar preocupaciones sobre vigilancia masiva y libertades civiles, lo que puede afectar el sentimiento de los stakeholders y el impulso regulatorio en torno a la gobernanza de IA.
Qué observar a continuación
Fuentes y verificación
El conflicto en la política de proveedores de IA resuena en la tecnología de defensa
Dario Amodei, CEO de Anthropic, expresó claramente en una entrevista con CBS News que la decisión del Departamento de Defensa de calificar a Anthropic como un “riesgo en la cadena de suministro” es un movimiento sin precedentes y punitivo, que reduce la libertad operativa del contratista y podría obstaculizar la innovación. Su principal objeción es sencilla: mientras el gobierno de EE. UU. busca aprovechar la IA en diversos programas, ciertas aplicaciones—particularmente vigilancia masiva y armas totalmente autónomas—están fuera de los límites para la tecnología de Anthropic, al menos en su forma actual.
Amodei fue cuidadoso en diferenciar entre usos aceptables e inaceptables. Enfatizó que la compañía apoya la mayoría de los casos de uso gubernamentales de su IA, siempre que esas aplicaciones no vulneren libertades civiles ni otorguen demasiado poder de decisión a las máquinas. Sus declaraciones subrayan una distinción crucial en el debate sobre política de IA: la línea entre habilitar automatización potente para defensa y preservar el control humano sobre resultados potencialmente letales. En su opinión, este último principio es fundamental para los valores estadounidenses y las normas internacionales.
La calificación del DoD a Anthropic ha sido vista por Amodei como una prueba de cómo EE. UU. pretende regular un sector tecnológico en rápida evolución. Argumenta que la legislación actual no ha seguido el ritmo de la aceleración de la IA, y llama al Congreso a establecer límites que restrinjan el uso doméstico de IA para vigilancia, asegurando que los sistemas militares mantengan un diseño con intervención humana cuando sea necesario. La idea de límites—destinados a definir claramente las fronteras para desarrolladores y usuarios—resuena en industrias tecnológicas donde la gestión del riesgo es un diferenciador competitivo.
Por otro lado, en la misma semana se informó que OpenAI obtuvo un contrato con el Departamento de Defensa para desplegar sus modelos de IA en redes militares. La coincidencia en el tiempo alimentó un debate más amplio sobre si el gobierno de EE. UU. está adoptando un enfoque multivendedor en IA para defensa o si está dirigiendo a los contratistas hacia un conjunto preferido de proveedores. El anuncio de OpenAI atrajo atención inmediata, con Sam Altman publicando una declaración en X, lo que aumentó el escrutinio sobre cómo se integrarán las herramientas de IA en la infraestructura de seguridad nacional. Los críticos rápidamente señalaron preocupaciones sobre la privacidad y libertades civiles, argumentando que ampliar la tecnología de vigilancia en defensa corre el riesgo de normalizar prácticas intrusivas de datos.
En medio del discurso público, los observadores del sector señalaron que el panorama político aún no está definido. Mientras algunos ven oportunidades para que la IA optimice operaciones de defensa y mejore los ciclos de decisión, otros temen excesos, falta de transparencia y posibles incentivos desalineados cuando las empresas de IA comercial se vuelven parte integral de los ecosistemas de seguridad nacional. La comparación entre la postura de Anthropic y el éxito de contrato de OpenAI refleja tensiones más amplias en la gobernanza de IA: cómo equilibrar innovación, seguridad y derechos fundamentales en un mundo donde la inteligencia de máquinas sustenta funciones críticas. El camino a seguir dependerá no solo de avances técnicos, sino también de claridad legislativa y una regulación pragmática que alinee incentivos en los sectores público y privado.
A medida que continúa la discusión política, los actores en el mundo cripto—donde la privacidad de datos, el cumplimiento y la confianza son fundamentales—estarán atentos. La tensión entre defensa e IA repercute en tecnología empresarial, servicios en la nube y pipelines analíticos que las plataformas cripto utilizan para gestión de riesgos, cumplimiento y procesamiento de datos en tiempo real. Si emergen límites explícitos que restrinjan usos relacionados con vigilancia, las implicaciones podrían extenderse a cómo se comercializan las herramientas de IA en sectores regulados, incluyendo finanzas y activos digitales, moldeando la próxima ola de infraestructura y gobernanza habilitada por IA.
Las preguntas clave son: ¿Legislatura concreta que defina el uso aceptable de IA en programas gubernamentales? ¿Cómo evolucionará la adquisición del DoD ante estrategias de proveedores en competencia? ¿Y cómo influirá la opinión pública en las evaluaciones de riesgo corporativo para proveedores de IA en ámbitos sensibles? Los próximos meses probablemente revelarán un marco más explícito para la regulación de IA que impactará tanto en políticas públicas como en innovación privada, afectando a desarrolladores, contratistas y usuarios en todo el panorama tecnológico.
Aviso de riesgo y afiliados: Los activos criptográficos son volátiles y el capital está en riesgo. Este artículo puede contener enlaces de afiliados.