De qué trata realmente la saga de seguridad de la IA de Anthropic

¿De qué trata realmente la saga de seguridad de la IA de Anthropic?

Análisis de Lisa Eadicicco, David Goldman, CNN

Jue, 26 de febrero de 2026 a las 10:48 p. m. GMT+9 5 min de lectura

Cofundador y CEO de Anthropic, Dario Amodei. - Chance Yeh/Getty Images

Anthropic ha llegado a una encrucijada familiar para una empresa tecnológica en crecimiento: cómo escalar sin comprometer los principios que la distinguen.

La empresa de IA ha convertido la seguridad en su principio rector. Abogó por la regulación de la IA y pidió protecciones para los trabajadores a medida que la IA reemplaza algunas tareas humanas. Anthropic ha trabajado arduamente para enviar un mensaje específico a los clientes: Somos los buenos.

Sin embargo, las barreras de protección que la propia empresa se impuso para construir esa marca ahora pueden estar convirtiéndose en obstáculos para su éxito.

Esta semana, el Pentágono le dio a Anthropic un ultimátum: Elimina tus restricciones éticas para la IA o pierde tu contrato de 200 millones de dólares y enfréntate a una lista negra. Por separado, también esta semana, Anthropic aflojó su política central de seguridad para permitirle a la empresa más libertad para crecer en un mercado competitivo y de ritmo acelerado.

No está claro cómo se desarrollará esta semana para el negocio y la reputación de Anthropic, pero sus decisiones serán determinantes.

Sabemos que, porque el dilema de Anthropic es uno conocido en la industria tecnológica. Muchas empresas pregonan sus valores y su moralidad, solo para enfrentarse a decisiones difíciles que las obligan a elegir entre el crecimiento y mantener esos ideales.

Anthropic quizá quiera tomar nota.

OpenAI y el fin de semana de Sam

Sam Altman, CEO de OpenAI. - Andrew Harnik/Getty Images

Hace poco más de dos años, el rival más grande de Anthropic luchó con el disenso por el crecimiento a costa de la seguridad.

En una de las tramas más extrañas de dramas de sala de juntas en la historia corporativa, el principal rival de Anthropic, OpenAI, despidió de forma abrupta a su fundador y CEO, Sam Altman, un viernes de noviembre de 2023, solo para readmitirlo el martes siguiente.

La saga implicó una estructura corporativa única que colocaba a la empresa privada y de rápido crecimiento detrás de ChatGPT bajo los auspicios de una junta sin fines de lucro. Cuatro años antes, la compañía había escrito en su estatuto que OpenAI permanecía “preocupada” por el potencial de la IA de “provocar un cambio rápido” para la humanidad. Los responsables de supervisar la empresa temían que Altman fuera tan rápido que arriesgaba socavar la seguridad que la compañía se comprometió a proporcionar.

Pero despedir a Altman llevó a amenazas de una salida masiva de empleados, una situación insostenible que podría haber llevado a la destrucción de la compañía. Así que la junta readmitió a Altman apenas días después. La junta se disolvió poco después y Altman cambió la estructura corporativa el año pasado para liberarse de su supervisor sin fines de lucro.

Desde entonces, OpenAI ha tenido dificultades para equilibrar velocidad y seguridad, enfrentando varias demandas que afirman que sus productos convencieron a jóvenes de hacerse daño. OpenAI niega esas acusaciones.

Apple y el tirador de San Bernardino

CEO de Apple, Tim Cook. - Godofredo A. Vásquez/AP

Syed Farook y su esposa, Tashfeen Malik, asesinaron a 14 personas en el Inland Regional Center en San Bernardino, California, en diciembre de 2015. La pareja murió más tarde en un tiroteo con la policía.

La historia continúa  

Los investigadores obtuvieron permiso para recuperar datos del iPhone de Farook, pero no pudieron acceder porque estaba bloqueado con un código de acceso. Un juez de California ordenó a Apple ayudar a los agentes encargados de hacer cumplir la ley a acceder al teléfono.

Pero en una carta abierta, firmada por el CEO de Apple, Tim Cook, la empresa se negó. Cook dijo que la orden del juez abriría “una puerta trasera para el iPhone”, algo que “consideramos demasiado peligroso como para crear”. La empresa dijo que no tenía simpatía por los terroristas, pero cumplir con la orden le daría a las autoridades gubernamentales “poder de llegar al dispositivo de cualquier persona para capturar sus datos”.

Apple recibió una enorme andanada de críticas por su decisión, incluida de entonces el candidato presidencial Donald Trump. Pero desde entonces ha acumulado elogios generalizados por defender la privacidad de sus clientes, algo que desde entonces se ha vuelto sinónimo de la marca de la empresa.

La empresa ahora promociona de manera rutinaria que no venderá los datos de los clientes ni almacenará cierta información personal en sus servidores, intentando diferenciarse de Google, uno de sus principales competidores.

Etsy vs. vendedores en solitario

La sede de Etsy en Nueva York. - Michael M. Santiago/Getty Images

Cuando el imperio de comercio electrónico de Amazon apenas comenzaba a despegar a principios de la década de 2000, Etsy surgió como una alternativa novedosa donde los compradores podían encontrar productos artesanales únicos.

Pero en 2013 hizo un cambio controvertido que amenazó con poner en riesgo ese espíritu. Amplió su política para permitir que los vendedores usaran fabricantes y subcontrataran operaciones, lo que generó preocupaciones en ese momento de que ya no proporcionaría un campo de juego justo para pequeños vendedores independientes que no tenían recursos para contratar personal.

Aun así, esa decisión fue fundamental para que Etsy se expandiera hasta el mercado en el que está hoy, que ahora ofrece más de 100 millones de artículos a la venta y aproximadamente 8 millones de vendedores activos.

“Desde el punto de vista de negocio, le salió bien a Etsy, pero fue un momento difícil para la empresa”, dijo Arun Sundararajan, director del Centro Fubon para Tecnología, Negocio e Innovación de la NYU Stern.

Qué sigue para Anthropic

La app de IA de Anthropic, Claude. - Michael M. Santiago/Getty Images

Estos estudios de caso ofrecen una hoja de ruta preventiva para Anthropic.

Ahora, la consecuencia más importante e inmediata para Anthropic probablemente sea cómo los clientes y los posibles clientes valoran y confían en la empresa, dijo Owen Daniels, subdirector de análisis del Center for Security and Emerging Technology de Georgetown.

Anthropic dijo que sus medidas de seguridad impuestas por sí misma siempre fueron pensadas para ser flexibles y estar sujetas a cambios a medida que evoluciona la IA. Se comprometió a ser transparente sobre la seguridad en el futuro y dijo que realmente no tenía otra opción: si dejaba de crecer, los rivales que no valoran tanto la seguridad podrían avanzar y hacer que la IA sea “en general menos segura”.

No está claro qué sucederá con el cambio de Anthropic, porque los riesgos existenciales de la IA todavía son en gran medida “conceptuales”, señaló Sundararajan.

Dijo que sería escéptico ante cualquier experto que llamara a esto un momento importante en la seguridad de la IA. Pero podría ser un momento importante para la empresa.

“Retirarse de una promesa de seguridad en particular aquí por parte de Anthropic, para mí, tiene más que ver con Anthropic y menos con el futuro de la IA”, dijo.

Para más noticias y boletines de CNN crea una cuenta en CNN.com

Términos y Política de Privacidad

Panel de Privacidad

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado