La conclusión de la crisis de identidad suele ser la desaparición de la misma.
Escrito por: Ada, Deep Tide TechFlow
Martes 24 de febrero. Washington, Pentágono.
El CEO de Anthropic, Dario Amodei, está sentado frente al Secretario de Defensa, Pete Hegseth. Según NPR y CNN, varias fuentes informaron que la reunión fue “cortés”, pero el contenido no fue nada amable.
Hegseth le dio un ultimátum: antes del viernes a las 17:01, levantar las restricciones militares sobre Claude, permitiendo que el Pentágono lo utilice para “todos los usos legales”, incluyendo la puntería en armas autónomas y la vigilancia masiva interna.
De lo contrario, cancelarán el contrato de 200 millones de dólares. Activarán la Ley de Producción de Defensa, exigiendo la confiscación. Colocarán a Anthropic en la lista de “riesgos en la cadena de suministro”, lo que equivale a incluirlo en la lista negra de entidades hostiles de Rusia y China.
El mismo día, Anthropic lanzó la tercera versión de su “Política de Expansión Responsable” (RSP 3.0), eliminando silenciosamente una de sus promesas más fundamentales desde su fundación: que no entrenarían modelos más potentes si no garantizaban medidas de seguridad adecuadas.
También ese día, Elon Musk publicó en X: “Anthropic está robando datos de entrenamiento a gran escala, eso es un hecho.” Además, la nota comunitaria en X añadió que Anthropic pagó 1.5 mil millones de dólares en acuerdo por entrenar a Claude con libros pirata.
En 72 horas, esta empresa de IA que se autodenomina “con alma” desempeñó simultáneamente tres roles: mártir de la seguridad, ladrón de propiedad intelectual y traidora del Pentágono.
¿Quién es el verdadero?
Quizá todos.
“O se obedecen o se desaparecen” en el Pentágono
La historia en su primera capa es sencilla.
Anthropic es la primera empresa de IA en obtener acceso confidencial del Departamento de Defensa de EE. UU. El contrato, obtenido el verano pasado, tiene un límite de 200 millones de dólares. Luego, OpenAI, Google y xAI también consiguieron contratos de igual escala.
Según Al Jazeera, Claude fue utilizado en una operación militar estadounidense en enero de este año. Se reportó que la operación involucró el secuestro del presidente venezolano, Maduro.
Pero Anthropic trazó dos líneas rojas: no apoyar armas autónomas completamente, ni vigilancia masiva de ciudadanos estadounidenses. Consideran que la IA no es confiable para controlar armas, y que actualmente no existen leyes o regulaciones que normen su uso en vigilancia masiva.
El Pentágono no acepta.
El asesor de IA de la Casa Blanca, David Sacks, acusó públicamente en X en octubre pasado a Anthropic de “utilizar el miedo como arma para capturar regulaciones”.
Los competidores ya se rindieron. OpenAI, Google y xAI aceptaron que sus IA sean usadas por militares en “todos los escenarios legales”. La plataforma de Musk, Grok, acaba de ser aprobada para sistemas confidenciales.
Anthropic es el último en mantenerse firme.
Hasta el momento de esta publicación, Anthropic afirmó en un comunicado que no tiene intención de ceder. Pero la fecha límite del viernes a las 17:01 se acerca rápidamente.
Un ex funcionario anónimo del Departamento de Justicia y Defensa expresó su confusión a CNN: “¿Cómo puede una misma empresa ser ‘riesgo en la cadena de suministro’ y al mismo tiempo ser obligada a trabajar para tu ejército?”
Buena pregunta, pero eso no entra en el radar del Pentágono. Lo que les importa es que, si Anthropic no cede, tomarán medidas coercitivas o la descartarán en Washington.
“Ataque de destilación”: una acusación que da en la cara
El 23 de febrero, Anthropic publicó un blog con tono enérgico acusando a tres empresas chinas de realizar “ataques de destilación a nivel industrial” contra Claude.
Las acusadas son DeepSeek, Moonshot AI y MiniMax.
Anthropic afirma que estas empresas usaron 24,000 cuentas falsas para realizar más de 16 millones de interacciones dirigidas a extraer las capacidades centrales de Claude en razonamiento, llamadas a herramientas y programación.
Lo califican como una amenaza a la seguridad nacional, alegando que los modelos destilados “probablemente no mantengan barreras de seguridad” y podrían ser utilizados por gobiernos autoritarios para ciberataques, desinformación y vigilancia masiva.
La narrativa es perfecta, y el momento también.
Justo después de que la administración Trump relajara las restricciones de exportación de chips a China, y cuando Anthropic buscaba argumentos para su lobby contra esas restricciones.
Pero Musk disparó: “Anthropic roba datos de entrenamiento a gran escala y pagó miles de millones en acuerdos. Eso es un hecho.”
Tory Green, cofundador de la empresa de infraestructura de IA IO.Net, comentó: “¿Ustedes entrenan sus modelos con datos de toda la web, y luego otros usan su API pública para aprender de ustedes? Eso llaman ‘ataque de destilación’?”
Anthropic llama ‘ataque’ a la destilación, pero en la industria de IA es algo común. OpenAI la usó para comprimir GPT-4, Google para optimizar Gemini, y hasta Anthropic lo hace. La diferencia es que en esta ocasión, la víctima es ella misma.
Según Erik Cambria, profesor de IA en la Universidad Tecnológica de Nanyang, Singapur, “la línea entre uso legítimo y uso malicioso suele ser difusa.”
Más irónico aún, es que Anthropic pagó 1.5 mil millones en acuerdo por entrenar a Claude con libros pirata, y ahora acusa a otros de usar su API pública para aprender de su modelo. No es doble estándar, sino triple.
Anthropic quería jugar a la víctima, pero terminó siendo acusada como acusadora.
El desmontaje de la promesa de seguridad: RSP 3.0
El mismo día en que confrontaba al Pentágono y se enfrentaba a Silicon Valley, Anthropic lanzó la tercera versión de su Política de Expansión Responsable.
El científico jefe de Anthropic, Jared Kaplan, dijo en una entrevista: “Creemos que dejar de entrenar modelos de IA no ayuda a nadie. En un contexto de rápido avance de la IA, hacer promesas unilaterales… no tiene sentido.”
En otras palabras, si los demás no juegan limpio, nosotros tampoco.
Las versiones 1.0 y 2.0 de RSP contenían una promesa rígida: si las capacidades del modelo superaban las medidas de seguridad, se detenía el entrenamiento. Esa promesa le otorgó a Anthropic una reputación única en círculos de seguridad de IA.
Pero en la 3.0, esa promesa desaparece.
En su lugar, hay un marco más “flexible”, que divide las medidas de seguridad que puede implementar Anthropic y las recomendaciones de seguridad que requieren colaboración de toda la industria. Se publicará un informe de riesgos cada 3-6 meses, con revisión de expertos externos.
¿Suena responsable?
Chris Painter, evaluador independiente de la organización sin fines de lucro METR, comentó tras revisar el borrador inicial: “Esto indica que Anthropic cree que necesita entrar en un ‘modo de triaje’, porque sus métodos de evaluación y mitigación de riesgos no siguen el ritmo del crecimiento de sus capacidades. Esto más bien demuestra que la sociedad no está preparada para los riesgos potenciales catastróficos de la IA.”
Según TIME, Anthropic dedicó casi un año a discutir internamente esta reescritura, y su CEO Amodei y la junta la aprobaron por unanimidad. La justificación oficial es que la política original buscaba impulsar un consenso en la industria, pero esta no avanzó. La administración Trump adoptó una postura de laissez-faire respecto a la IA, incluso intentando derogar regulaciones estatales. La legislación federal sobre IA sigue sin avanzar. Aunque en 2023 parecía posible establecer un marco global de gobernanza, han pasado tres años y esa puerta parece cerrada.
Un investigador anónimo que sigue de cerca la gobernanza de IA lo expresó claramente: “RSP es la marca más valiosa de Anthropic. Quitar la promesa de detener el entrenamiento es como que una marca de alimentos orgánicos retire silenciosamente la palabra ‘orgánico’ del empaque y diga que ahora sus controles son más transparentes.”
La fractura de identidad en una valoración de 380 mil millones
A principios de febrero, Anthropic cerró una ronda de financiación de 300 millones de dólares con una valoración de 380 mil millones, con Amazon como inversor ancla. Desde su fundación, ha logrado ingresos anuales de 14 mil millones de dólares, creciendo más de diez veces en los últimos tres años.
Al mismo tiempo, el Pentágono amenaza con incluirla en la lista negra. Musk la acusa públicamente de robo de datos. Sus compromisos de seguridad se han eliminado. Tras la renuncia de su responsable de seguridad de IA, Mrinank Sharma, escribió en X: “El mundo está en peligro.”
¿Contradicciones?
Quizá la contradicción sea parte del ADN de Anthropic.
Fundada por ex ejecutivos de OpenAI, temían que OpenAI avanzara demasiado rápido en seguridad. Luego crearon su propia empresa para construir modelos más potentes a mayor velocidad, y al mismo tiempo, advertían sobre los peligros de esos modelos.
Su modelo de negocio puede resumirse en una frase: somos más temerosos de la IA que nadie, así que tú deberías pagar para que la construyamos.
Esta narrativa funcionó a la perfección en 2023-2024. La seguridad en IA fue la palabra de moda en Washington, y Anthropic fue su principal cabildero.
Pero en 2026, cambió el viento.
“IA woke” se convirtió en un término de ataque, las leyes estatales de regulación de IA fueron bloqueadas por la Casa Blanca, y la ley de California SB 53, apoyada por Anthropic, fue aprobada, pero a nivel federal todo quedó en nada.
La estrategia de seguridad de Anthropic, que antes era una ventaja competitiva, ahora se desliza hacia un pasivo político.
Está haciendo un equilibrio complejo: necesita ser lo suficientemente “segura” para mantener su marca, pero también lo suficientemente “flexible” para no ser abandonada por el mercado y el gobierno. El problema es que el espacio de tolerancia en ambos lados se está reduciendo.
¿Cuánto vale todavía la narrativa de seguridad?
Al juntar las tres cosas, la imagen queda clara.
Acusar a las empresas chinas de destilar Claude es para reforzar la narrativa de lobby contra restricciones de exportación de chips. Para no quedar atrás en la carrera armamentística, eliminaron la promesa de pausa de seguridad. Rechazar la demanda del Pentágono de armas autónomas es para mantener la última capa de moralidad.
Cada paso tiene lógica, pero entre sí son contradictorios.
No puedes decir que las empresas chinas “destilan” tu modelo y que eso pone en riesgo la seguridad nacional, y al mismo tiempo eliminar la promesa de evitar que tu propio modelo se descontrole. Si el modelo fuera realmente tan peligroso, deberías ser más cauteloso, no más agresivo.
A menos que seas Anthropic.
En la industria de IA, la identidad no la define tu declaración, sino tu balance. La narrativa de “seguridad” de Anthropic es, en esencia, un valor de marca.
En la carrera armamentística de IA, ese valor era dinero. Los inversores estaban dispuestos a pagar valoraciones más altas por “IA responsable”, los gobiernos a aprobar “IA confiable”, y los clientes a pagar por “IA más segura”.
Pero en 2026, esa prima se está evaporando.
Lo que enfrenta ahora Anthropic no es una cuestión de “¿debería ceder?”, sino de “¿a quién ceder primero?”. Ceder al Pentágono daña su marca. Ceder a la competencia anula sus promesas de seguridad. Ceder a los inversores obliga a sacrificar ambas cosas.
El viernes a las 17:01, Anthropic dará su respuesta.
Pero sea cual sea, una cosa ya está clara: aquella que alguna vez se apoyó en “somos diferentes a OpenAI”, ahora se está convirtiendo en igual a todos los demás.
La conclusión de la crisis de identidad suele ser la desaparición de la misma.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Las setenta y dos horas de la crisis de identidad de Anthropic
La conclusión de la crisis de identidad suele ser la desaparición de la misma.
Escrito por: Ada, Deep Tide TechFlow
Martes 24 de febrero. Washington, Pentágono.
El CEO de Anthropic, Dario Amodei, está sentado frente al Secretario de Defensa, Pete Hegseth. Según NPR y CNN, varias fuentes informaron que la reunión fue “cortés”, pero el contenido no fue nada amable.
Hegseth le dio un ultimátum: antes del viernes a las 17:01, levantar las restricciones militares sobre Claude, permitiendo que el Pentágono lo utilice para “todos los usos legales”, incluyendo la puntería en armas autónomas y la vigilancia masiva interna.
De lo contrario, cancelarán el contrato de 200 millones de dólares. Activarán la Ley de Producción de Defensa, exigiendo la confiscación. Colocarán a Anthropic en la lista de “riesgos en la cadena de suministro”, lo que equivale a incluirlo en la lista negra de entidades hostiles de Rusia y China.
El mismo día, Anthropic lanzó la tercera versión de su “Política de Expansión Responsable” (RSP 3.0), eliminando silenciosamente una de sus promesas más fundamentales desde su fundación: que no entrenarían modelos más potentes si no garantizaban medidas de seguridad adecuadas.
También ese día, Elon Musk publicó en X: “Anthropic está robando datos de entrenamiento a gran escala, eso es un hecho.” Además, la nota comunitaria en X añadió que Anthropic pagó 1.5 mil millones de dólares en acuerdo por entrenar a Claude con libros pirata.
En 72 horas, esta empresa de IA que se autodenomina “con alma” desempeñó simultáneamente tres roles: mártir de la seguridad, ladrón de propiedad intelectual y traidora del Pentágono.
¿Quién es el verdadero?
Quizá todos.
“O se obedecen o se desaparecen” en el Pentágono
La historia en su primera capa es sencilla.
Anthropic es la primera empresa de IA en obtener acceso confidencial del Departamento de Defensa de EE. UU. El contrato, obtenido el verano pasado, tiene un límite de 200 millones de dólares. Luego, OpenAI, Google y xAI también consiguieron contratos de igual escala.
Según Al Jazeera, Claude fue utilizado en una operación militar estadounidense en enero de este año. Se reportó que la operación involucró el secuestro del presidente venezolano, Maduro.
Pero Anthropic trazó dos líneas rojas: no apoyar armas autónomas completamente, ni vigilancia masiva de ciudadanos estadounidenses. Consideran que la IA no es confiable para controlar armas, y que actualmente no existen leyes o regulaciones que normen su uso en vigilancia masiva.
El Pentágono no acepta.
El asesor de IA de la Casa Blanca, David Sacks, acusó públicamente en X en octubre pasado a Anthropic de “utilizar el miedo como arma para capturar regulaciones”.
Los competidores ya se rindieron. OpenAI, Google y xAI aceptaron que sus IA sean usadas por militares en “todos los escenarios legales”. La plataforma de Musk, Grok, acaba de ser aprobada para sistemas confidenciales.
Anthropic es el último en mantenerse firme.
Hasta el momento de esta publicación, Anthropic afirmó en un comunicado que no tiene intención de ceder. Pero la fecha límite del viernes a las 17:01 se acerca rápidamente.
Un ex funcionario anónimo del Departamento de Justicia y Defensa expresó su confusión a CNN: “¿Cómo puede una misma empresa ser ‘riesgo en la cadena de suministro’ y al mismo tiempo ser obligada a trabajar para tu ejército?”
Buena pregunta, pero eso no entra en el radar del Pentágono. Lo que les importa es que, si Anthropic no cede, tomarán medidas coercitivas o la descartarán en Washington.
“Ataque de destilación”: una acusación que da en la cara
El 23 de febrero, Anthropic publicó un blog con tono enérgico acusando a tres empresas chinas de realizar “ataques de destilación a nivel industrial” contra Claude.
Las acusadas son DeepSeek, Moonshot AI y MiniMax.
Anthropic afirma que estas empresas usaron 24,000 cuentas falsas para realizar más de 16 millones de interacciones dirigidas a extraer las capacidades centrales de Claude en razonamiento, llamadas a herramientas y programación.
Lo califican como una amenaza a la seguridad nacional, alegando que los modelos destilados “probablemente no mantengan barreras de seguridad” y podrían ser utilizados por gobiernos autoritarios para ciberataques, desinformación y vigilancia masiva.
La narrativa es perfecta, y el momento también.
Justo después de que la administración Trump relajara las restricciones de exportación de chips a China, y cuando Anthropic buscaba argumentos para su lobby contra esas restricciones.
Pero Musk disparó: “Anthropic roba datos de entrenamiento a gran escala y pagó miles de millones en acuerdos. Eso es un hecho.”
Tory Green, cofundador de la empresa de infraestructura de IA IO.Net, comentó: “¿Ustedes entrenan sus modelos con datos de toda la web, y luego otros usan su API pública para aprender de ustedes? Eso llaman ‘ataque de destilación’?”
Anthropic llama ‘ataque’ a la destilación, pero en la industria de IA es algo común. OpenAI la usó para comprimir GPT-4, Google para optimizar Gemini, y hasta Anthropic lo hace. La diferencia es que en esta ocasión, la víctima es ella misma.
Según Erik Cambria, profesor de IA en la Universidad Tecnológica de Nanyang, Singapur, “la línea entre uso legítimo y uso malicioso suele ser difusa.”
Más irónico aún, es que Anthropic pagó 1.5 mil millones en acuerdo por entrenar a Claude con libros pirata, y ahora acusa a otros de usar su API pública para aprender de su modelo. No es doble estándar, sino triple.
Anthropic quería jugar a la víctima, pero terminó siendo acusada como acusadora.
El desmontaje de la promesa de seguridad: RSP 3.0
El mismo día en que confrontaba al Pentágono y se enfrentaba a Silicon Valley, Anthropic lanzó la tercera versión de su Política de Expansión Responsable.
El científico jefe de Anthropic, Jared Kaplan, dijo en una entrevista: “Creemos que dejar de entrenar modelos de IA no ayuda a nadie. En un contexto de rápido avance de la IA, hacer promesas unilaterales… no tiene sentido.”
En otras palabras, si los demás no juegan limpio, nosotros tampoco.
Las versiones 1.0 y 2.0 de RSP contenían una promesa rígida: si las capacidades del modelo superaban las medidas de seguridad, se detenía el entrenamiento. Esa promesa le otorgó a Anthropic una reputación única en círculos de seguridad de IA.
Pero en la 3.0, esa promesa desaparece.
En su lugar, hay un marco más “flexible”, que divide las medidas de seguridad que puede implementar Anthropic y las recomendaciones de seguridad que requieren colaboración de toda la industria. Se publicará un informe de riesgos cada 3-6 meses, con revisión de expertos externos.
¿Suena responsable?
Chris Painter, evaluador independiente de la organización sin fines de lucro METR, comentó tras revisar el borrador inicial: “Esto indica que Anthropic cree que necesita entrar en un ‘modo de triaje’, porque sus métodos de evaluación y mitigación de riesgos no siguen el ritmo del crecimiento de sus capacidades. Esto más bien demuestra que la sociedad no está preparada para los riesgos potenciales catastróficos de la IA.”
Según TIME, Anthropic dedicó casi un año a discutir internamente esta reescritura, y su CEO Amodei y la junta la aprobaron por unanimidad. La justificación oficial es que la política original buscaba impulsar un consenso en la industria, pero esta no avanzó. La administración Trump adoptó una postura de laissez-faire respecto a la IA, incluso intentando derogar regulaciones estatales. La legislación federal sobre IA sigue sin avanzar. Aunque en 2023 parecía posible establecer un marco global de gobernanza, han pasado tres años y esa puerta parece cerrada.
Un investigador anónimo que sigue de cerca la gobernanza de IA lo expresó claramente: “RSP es la marca más valiosa de Anthropic. Quitar la promesa de detener el entrenamiento es como que una marca de alimentos orgánicos retire silenciosamente la palabra ‘orgánico’ del empaque y diga que ahora sus controles son más transparentes.”
La fractura de identidad en una valoración de 380 mil millones
A principios de febrero, Anthropic cerró una ronda de financiación de 300 millones de dólares con una valoración de 380 mil millones, con Amazon como inversor ancla. Desde su fundación, ha logrado ingresos anuales de 14 mil millones de dólares, creciendo más de diez veces en los últimos tres años.
Al mismo tiempo, el Pentágono amenaza con incluirla en la lista negra. Musk la acusa públicamente de robo de datos. Sus compromisos de seguridad se han eliminado. Tras la renuncia de su responsable de seguridad de IA, Mrinank Sharma, escribió en X: “El mundo está en peligro.”
¿Contradicciones?
Quizá la contradicción sea parte del ADN de Anthropic.
Fundada por ex ejecutivos de OpenAI, temían que OpenAI avanzara demasiado rápido en seguridad. Luego crearon su propia empresa para construir modelos más potentes a mayor velocidad, y al mismo tiempo, advertían sobre los peligros de esos modelos.
Su modelo de negocio puede resumirse en una frase: somos más temerosos de la IA que nadie, así que tú deberías pagar para que la construyamos.
Esta narrativa funcionó a la perfección en 2023-2024. La seguridad en IA fue la palabra de moda en Washington, y Anthropic fue su principal cabildero.
Pero en 2026, cambió el viento.
“IA woke” se convirtió en un término de ataque, las leyes estatales de regulación de IA fueron bloqueadas por la Casa Blanca, y la ley de California SB 53, apoyada por Anthropic, fue aprobada, pero a nivel federal todo quedó en nada.
La estrategia de seguridad de Anthropic, que antes era una ventaja competitiva, ahora se desliza hacia un pasivo político.
Está haciendo un equilibrio complejo: necesita ser lo suficientemente “segura” para mantener su marca, pero también lo suficientemente “flexible” para no ser abandonada por el mercado y el gobierno. El problema es que el espacio de tolerancia en ambos lados se está reduciendo.
¿Cuánto vale todavía la narrativa de seguridad?
Al juntar las tres cosas, la imagen queda clara.
Acusar a las empresas chinas de destilar Claude es para reforzar la narrativa de lobby contra restricciones de exportación de chips. Para no quedar atrás en la carrera armamentística, eliminaron la promesa de pausa de seguridad. Rechazar la demanda del Pentágono de armas autónomas es para mantener la última capa de moralidad.
Cada paso tiene lógica, pero entre sí son contradictorios.
No puedes decir que las empresas chinas “destilan” tu modelo y que eso pone en riesgo la seguridad nacional, y al mismo tiempo eliminar la promesa de evitar que tu propio modelo se descontrole. Si el modelo fuera realmente tan peligroso, deberías ser más cauteloso, no más agresivo.
A menos que seas Anthropic.
En la industria de IA, la identidad no la define tu declaración, sino tu balance. La narrativa de “seguridad” de Anthropic es, en esencia, un valor de marca.
En la carrera armamentística de IA, ese valor era dinero. Los inversores estaban dispuestos a pagar valoraciones más altas por “IA responsable”, los gobiernos a aprobar “IA confiable”, y los clientes a pagar por “IA más segura”.
Pero en 2026, esa prima se está evaporando.
Lo que enfrenta ahora Anthropic no es una cuestión de “¿debería ceder?”, sino de “¿a quién ceder primero?”. Ceder al Pentágono daña su marca. Ceder a la competencia anula sus promesas de seguridad. Ceder a los inversores obliga a sacrificar ambas cosas.
El viernes a las 17:01, Anthropic dará su respuesta.
Pero sea cual sea, una cosa ya está clara: aquella que alguna vez se apoyó en “somos diferentes a OpenAI”, ahora se está convirtiendo en igual a todos los demás.
La conclusión de la crisis de identidad suele ser la desaparición de la misma.