Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic, OpenAI reducen el lenguaje de seguridad a medida que la carrera de IA se acelera
El organismo Anthropic y OpenAI reducen el lenguaje de seguridad mientras se acelera la carrera de la IA
Jason Nelson
Thu, February 26, 2026 at 10:41 AM GMT+9 4 min read
En este artículo:
GOOG
+0.68%
Anthropic ha eliminado una promesa central de seguridad de su Política de Escalado Responsable, según un informe de TIME. Los cambios aflojan un compromiso que antes impedía que el desarrollador de Claude entrenara sistemas avanzados de IA sin salvaguardias garantizadas.
El movimiento reconfigura cómo la empresa se posiciona en la carrera de la IA contra rivales como OpenAI, Google y xAI. Anthropic durante mucho tiempo se ha presentado como uno de los laboratorios del sector más centrados en la seguridad, pero con la política revisada, Anthropic ya no promete detener el entrenamiento si las mitigaciones de riesgo no están plenamente en su lugar.
“Sentimos que en realidad no ayudaría a nadie que nosotros detuviéramos el entrenamiento de modelos de IA,” dijo el director de ciencia de Anthropic, Jared Kaplan, a TIME. “No sentimos realmente, con el avance rápido de la IA, que tuviera sentido para nosotros hacer compromisos unilaterales… si los competidores están avanzando a toda velocidad”.
El cambio llega cuando Anthropic se encuentra envuelto en una disputa pública con el Secretario de Defensa de EE. UU. Pete Hegseth por negarse a conceder al Pentágono acceso total a Claude, convirtiéndolo en el único gran laboratorio de IA entre Google, xAI, Meta y OpenAI que adopta esa postura.
Edward Geist, un investigador senior de políticas en la RAND Corporation, dijo que el encuadre anterior de “seguridad de la IA” surgió de una comunidad intelectual específica que precedía a los grandes modelos de lenguaje de hoy.
“Hace apenas unos años, existía el campo de la seguridad de la IA,” dijo Geist a Decrypt. “La seguridad de la IA se asociaba a un conjunto particular de puntos de vista que surgieron de la comunidad de personas que se preocupaban por la IA poderosa antes de que tuviéramos estos LLM.”
Geist dijo que los primeros defensores de la seguridad de la IA trabajaban con una visión muy distinta de cómo se vería la inteligencia artificial avanzada.
UK Prime Minister Seeks New Powers to Regulate AI Chatbots as Child Safety Concerns Mount
“Al final, terminaron conceptualizando el problema de una manera que, en algunos aspectos, estaba imaginando algo cualitativamente diferente de estos LLM actuales, para bien o para mal,” dijo Geist.
Geist dijo que el cambio de lenguaje también envía una señal a inversionistas y responsables de políticas.
“Parte de ello es señalar a varios sectores que muchas de estas empresas quieren dar la impresión de que no están frenando la competencia económica debido a preocupaciones sobre la ‘seguridad de la IA’,” dijo, y añadió que la terminología en sí está cambiando para adaptarse a los tiempos.
Anthropic no es la única que revisa su lenguaje de seguridad.
¿Qué define la seguridad de la IA?
Un informe reciente de la organización de noticias sin fines de lucro _The Conversation, _señaló cómo OpenAI también cambió su declaración de misión en su presentación del IRS de 2024, eliminando la palabra “safely”.
La declaración anterior de la empresa prometía construir una IA de propósito general que “beneficie de manera segura a la humanidad, sin verse limitada por la necesidad de generar un retorno financiero.” La versión actualizada ahora afirma que su objetivo es “asegurar que la inteligencia general artificial beneficie a toda la humanidad”.
“El problema con el término seguridad de la IA es que nadie parece saber exactamente lo que significa,” dijo Geist. “Aunque, por lo demás, el término seguridad de la IA también ha sido discutido.”
La nueva política de Anthropic enfatiza medidas de transparencia como publicar “hojas de ruta de seguridad de frontera” y reportes regulares de “riesgo”, y dice que retrasará el desarrollo si cree que existe un riesgo significativo de catástrofe.
Los cambios de política de Anthropic y OpenAI llegan cuando las empresas buscan fortalecer su posición comercial.
Asistente de IA de código abierto de crecimiento rápido Clawdbot está probando los límites de la automatización—y la seguridad
A principios de este mes, Anthropic dijo que recaudó $30 mil millones con una valoración de aproximadamente $380 mil millones. Al mismo tiempo, OpenAI está finalizando una ronda de financiación respaldada por Amazon, Microsoft y Nvidia que podría alcanzar $100 mil millones.
A Anthropic y OpenAI, junto con Google y xAI, se les han otorgado lucrativos contratos gubernamentales con el Departamento de Defensa de EE. UU. Para Anthropic, sin embargo, el contrato parece estar en duda, ya que el Pentágono evalúa si recortar lazos con la firma de IA debido a quejas sobre acceso.
A medida que entra capital en el sector y se intensifica la competencia geopolítica, Hamza Chaudhry, responsable de IA y Seguridad Nacional en el Future of Life Institute, dijo que el cambio de política refleja dinámicas políticas cambiantes, más que una búsqueda de negocios para el Pentágono.
“Si ese fuera el caso, simplemente se habrían echado atrás de lo que dijo el Pentágono hace una semana,” dijo Chaudhry a Decrypt. “Dario [Amodei] no habría aparecido para reunirse.”
En lugar de eso, Chaudhry dijo que la reescritura refleja un punto de inflexión en la manera en que las empresas de IA hablan sobre el riesgo a medida que aumentan la presión política y las apuestas competitivas.
“Anthropic ahora está diciendo: ‘Miren, no podemos seguir diciendo seguridad, no podemos pausar incondicionalmente, y vamos a empujar por una regulación mucho más ligera en cuanto a intervención,’” dijo.
Términos y Política de Privacidad
Privacy Dashboard
Más información