Anthropic, OpenAI reducen el lenguaje de seguridad a medida que la carrera de IA se acelera

El organismo Anthropic y OpenAI reducen el lenguaje de seguridad mientras se acelera la carrera de la IA

Jason Nelson

Thu, February 26, 2026 at 10:41 AM GMT+9 4 min read

En este artículo:

GOOG

+0.68%

Anthropic ha eliminado una promesa central de seguridad de su Política de Escalado Responsable, según un informe de TIME. Los cambios aflojan un compromiso que antes impedía que el desarrollador de Claude entrenara sistemas avanzados de IA sin salvaguardias garantizadas.

El movimiento reconfigura cómo la empresa se posiciona en la carrera de la IA contra rivales como OpenAI, Google y xAI. Anthropic durante mucho tiempo se ha presentado como uno de los laboratorios del sector más centrados en la seguridad, pero con la política revisada, Anthropic ya no promete detener el entrenamiento si las mitigaciones de riesgo no están plenamente en su lugar.

“Sentimos que en realidad no ayudaría a nadie que nosotros detuviéramos el entrenamiento de modelos de IA,” dijo el director de ciencia de Anthropic, Jared Kaplan, a TIME. “No sentimos realmente, con el avance rápido de la IA, que tuviera sentido para nosotros hacer compromisos unilaterales… si los competidores están avanzando a toda velocidad”.

El cambio llega cuando Anthropic se encuentra envuelto en una disputa pública con el Secretario de Defensa de EE. UU. Pete Hegseth por negarse a conceder al Pentágono acceso total a Claude, convirtiéndolo en el único gran laboratorio de IA entre Google, xAI, Meta y OpenAI que adopta esa postura.

Edward Geist, un investigador senior de políticas en la RAND Corporation, dijo que el encuadre anterior de “seguridad de la IA” surgió de una comunidad intelectual específica que precedía a los grandes modelos de lenguaje de hoy.

“Hace apenas unos años, existía el campo de la seguridad de la IA,” dijo Geist a Decrypt. “La seguridad de la IA se asociaba a un conjunto particular de puntos de vista que surgieron de la comunidad de personas que se preocupaban por la IA poderosa antes de que tuviéramos estos LLM.”

Geist dijo que los primeros defensores de la seguridad de la IA trabajaban con una visión muy distinta de cómo se vería la inteligencia artificial avanzada.

UK Prime Minister Seeks New Powers to Regulate AI Chatbots as Child Safety Concerns Mount

“Al final, terminaron conceptualizando el problema de una manera que, en algunos aspectos, estaba imaginando algo cualitativamente diferente de estos LLM actuales, para bien o para mal,” dijo Geist.

Geist dijo que el cambio de lenguaje también envía una señal a inversionistas y responsables de políticas.

“Parte de ello es señalar a varios sectores que muchas de estas empresas quieren dar la impresión de que no están frenando la competencia económica debido a preocupaciones sobre la ‘seguridad de la IA’,” dijo, y añadió que la terminología en sí está cambiando para adaptarse a los tiempos.

Anthropic no es la única que revisa su lenguaje de seguridad.

¿Qué define la seguridad de la IA?

Un informe reciente de la organización de noticias sin fines de lucro _The Conversation, _señaló cómo OpenAI también cambió su declaración de misión en su presentación del IRS de 2024, eliminando la palabra “safely”.

Story Continues  

La declaración anterior de la empresa prometía construir una IA de propósito general que “beneficie de manera segura a la humanidad, sin verse limitada por la necesidad de generar un retorno financiero.” La versión actualizada ahora afirma que su objetivo es “asegurar que la inteligencia general artificial beneficie a toda la humanidad”.

“El problema con el término seguridad de la IA es que nadie parece saber exactamente lo que significa,” dijo Geist. “Aunque, por lo demás, el término seguridad de la IA también ha sido discutido.”

La nueva política de Anthropic enfatiza medidas de transparencia como publicar “hojas de ruta de seguridad de frontera” y reportes regulares de “riesgo”, y dice que retrasará el desarrollo si cree que existe un riesgo significativo de catástrofe.

Los cambios de política de Anthropic y OpenAI llegan cuando las empresas buscan fortalecer su posición comercial.

Asistente de IA de código abierto de crecimiento rápido Clawdbot está probando los límites de la automatización—y la seguridad

A principios de este mes, Anthropic dijo que recaudó $30 mil millones con una valoración de aproximadamente $380 mil millones. Al mismo tiempo, OpenAI está finalizando una ronda de financiación respaldada por Amazon, Microsoft y Nvidia que podría alcanzar $100 mil millones.

A Anthropic y OpenAI, junto con Google y xAI, se les han otorgado lucrativos contratos gubernamentales con el Departamento de Defensa de EE. UU. Para Anthropic, sin embargo, el contrato parece estar en duda, ya que el Pentágono evalúa si recortar lazos con la firma de IA debido a quejas sobre acceso.

A medida que entra capital en el sector y se intensifica la competencia geopolítica, Hamza Chaudhry, responsable de IA y Seguridad Nacional en el Future of Life Institute, dijo que el cambio de política refleja dinámicas políticas cambiantes, más que una búsqueda de negocios para el Pentágono.

“Si ese fuera el caso, simplemente se habrían echado atrás de lo que dijo el Pentágono hace una semana,” dijo Chaudhry a Decrypt. “Dario [Amodei] no habría aparecido para reunirse.”

En lugar de eso, Chaudhry dijo que la reescritura refleja un punto de inflexión en la manera en que las empresas de IA hablan sobre el riesgo a medida que aumentan la presión política y las apuestas competitivas.

“Anthropic ahora está diciendo: ‘Miren, no podemos seguir diciendo seguridad, no podemos pausar incondicionalmente, y vamos a empujar por una regulación mucho más ligera en cuanto a intervención,’” dijo.

Términos y Política de Privacidad

Privacy Dashboard

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado