Anthropic responde oficialmente: en relación con la determinación de "riesgo en la cadena de suministro", demandará al Departamento de Defensa de EE. UU.

robot
Generación de resúmenes en curso

La APP de Caijing Zhitong ha sabido que el Departamento de Defensa de EE. UU. notificó oficialmente a la empresa Anthropic PBC que su compañía y sus productos representan un riesgo para la cadena de suministro estadounidense. Según un alto funcionario de defensa, esta medida ha intensificado aún más la disputa entre ambas partes en el ámbito de la seguridad de la inteligencia artificial.

El funcionario reveló el jueves: “El Departamento de Guerra (Department of War, abreviado DOW) ha emitido oficialmente una notificación a la dirección de Anthropic, dejando claro que la compañía y sus productos son considerados un riesgo para la cadena de suministro, y esta designación entra en vigor a partir de hoy.” Es importante señalar que, recientemente, el ministro de Defensa, Pete Hegseth, ha preferido usar el término tradicional “Departamento de Guerra” para referirse al Departamento de Defensa, y en esta comunicación oficial se ha utilizado por primera vez esa denominación.

Frente a la amenaza de la lista negra emitida por el Departamento de Defensa debido a disputas sobre la seguridad de la inteligencia artificial, se espera que este estancamiento escale a un enfrentamiento legal.

“Estamos convencidos de que esta acción carece de fundamento legal, por lo que no nos queda otra opción que defendernos por vía judicial,” declaró claramente el CEO de Anthropic, Dario Amodei, en su blog oficial el jueves.

Aunque el funcionario de defensa enfatizó que la decisión “entra en vigor de inmediato,” fuentes informadas revelaron que las fuerzas armadas estadounidenses siguen utilizando la herramienta de inteligencia artificial Claude de Anthropic en sus operaciones contra Irán. El pasado viernes, al advertir a la compañía, el ministro Hegseth propuso un período de transición de seis meses, durante el cual se les exigió transferir sus operaciones de inteligencia artificial a otros proveedores.

A pesar de que este funcionario afirmó que la decisión “entra en vigor de inmediato,” una fuente cercana indicó que las fuerzas armadas estadounidenses continúan empleando activamente la herramienta Claude en sus operaciones militares contra Irán. Cuando Hegseth advirtió a la empresa el pasado viernes, también delineó un período de transición de seis meses para que transfirieran sus negocios de inteligencia artificial a otros proveedores.

Ni Anthropic ni los portavoces del Departamento de Defensa han emitido comentarios inmediatos sobre esta serie de movimientos. Es importante destacar que el funcionario de defensa no especificó cuándo ni cómo se comunicó oficialmente a Anthropic esta designación de riesgo.

Anteriormente, Anthropic ya había declarado que tomaría acciones legales contra cualquier designación de riesgo en la cadena de suministro por parte del Departamento de Defensa.

La designación del riesgo en la cadena de suministro por parte del Departamento de Defensa podría alterar la colaboración entre Anthropic y las fuerzas armadas, ya que estas dependen profundamente del software de la compañía. Hasta hace poco, Anthropic era el único proveedor autorizado para operar en la plataforma de nube confidencial del Departamento de Defensa de EE. UU., y su herramienta Claude Gov, por su facilidad de uso, se ha convertido en la plataforma operativa principal para el personal militar.

“Esto representa una capacidad tecnológica de gran valor estratégico,” enfatizó Lauren Cahn, analista senior del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, en una entrevista. “Si esta capacidad se elimina por la fuerza, provocará daños en cadena en las fuerzas armadas, las empresas y todo el ecosistema tecnológico.”

El CEO de Anthropic, Dario Amodei, mantuvo negociaciones de varias semanas con Emil Michael, vicepresidente del Departamento de Defensa responsable de investigación e ingeniería, con el objetivo de acordar un contrato especial que regulara el acceso del Departamento de Defensa a la tecnología de Anthropic. Sin embargo, las negociaciones se rompieron la semana pasada, ya que la startup insistió en obtener garantías claras de que su tecnología de inteligencia artificial no sería utilizada para vigilancia masiva de ciudadanos estadounidenses ni para desplegar armas autónomas.

Posteriormente, el viernes, Hegseth publicó en la plataforma X que Anthropic representaba un “riesgo en la cadena de suministro.” Es importante señalar que este tipo de designaciones generalmente se aplican a países o entidades considerados adversarios por EE. UU., por lo que su uso en una empresa tecnológica es inusual.

Aún no está claro bajo qué ley el Departamento de Defensa ha considerado a Anthropic como una amenaza para la cadena de suministro. En una declaración en respuesta a la publicación del ministro Hegseth en las redes sociales la semana pasada, Anthropic afirmó que espera que esta acción de designación de riesgo se lleve a cabo finalmente bajo la Sección 3252 de la Ley de Administración de las Fuerzas Armadas de EE. UU.

“Desde el principio, el principio fundamental ha sido claro: el ejército debe tener la autonomía para usar la tecnología para todos los fines legales,” enfatizó el funcionario de defensa el jueves. “No permitiremos que ningún proveedor limite el uso legítimo de capacidades clave para interferir en la cadena de mando y poner en peligro a los combatientes.”

Este reconocimiento coincide con un momento clave en el que las fuerzas armadas estadounidenses dependen en gran medida de la herramienta Claude en sus operaciones contra Irán—las tropas de EE. UU. están procesando datos masivos de manera eficiente mediante una serie de herramientas de inteligencia artificial. Fuentes informadas indicaron que el sistema Maven, desarrollado por Palantir Technologies Inc., se usa ampliamente en Oriente Medio, y que la herramienta Claude de Anthropic es uno de los principales modelos de lenguaje grande integrados en ese sistema. Estas fuentes subrayaron que Claude ha demostrado un rendimiento sobresaliente en operaciones reales, siendo un soporte crucial para las acciones contra Irán y acelerando significativamente la actualización de inteligencia artificial del sistema Maven.

Actualmente, la valoración de Anthropic alcanza los 380 mil millones de dólares. Según sus resultados actuales, la compañía podría alcanzar unos 20 mil millones de dólares en ingresos anuales, lo que implica que su tasa de ingresos anuales se ha duplicado respecto a finales del año pasado. Sin embargo, la disputa en curso con el Departamento de Defensa proyecta una sombra sobre el futuro de esta gigante tecnológica.

Aún no está claro qué impacto a largo plazo tendrá la declaración de riesgo del Departamento de Defensa en las ventas de Anthropic a clientes empresariales, que han sido su principal fuente de ingresos durante mucho tiempo. Es importante destacar que, en medio de la incertidumbre, la compañía está expandiendo silenciosamente su mercado de usuarios comunes: su aplicación principal ha alcanzado la cima en las listas de descargas de la App Store de Apple, reflejando una aceptación y apoyo generalizados del mercado hacia los productos tecnológicos de Anthropic.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado