Anthropic obtiene respaldo judicial para bloquear la orden de Trump de prohibir el uso de sus herramientas de IA

robot
Generación de resúmenes en curso

El enfrentamiento legal inicial avanza entre Anthropic y el Departamento de Defensa de Estados Unidos.

El jueves 26 de marzo, un juez federal en California dictaminó que las medidas de sanción que el gobierno de EE. UU. aplicó a la empresa de inteligencia artificial Anthropic habrían excedido sus competencias, y ordenó suspender temporalmente dichas acciones.

La jueza de distrito Rita F. Lin concedió la solicitud de medida cautelar temporal de Anthropic, ordenando pausar durante una semana las sanciones del gobierno contra la empresa, mientras el tribunal continúa con el caso. La jueza dijo:

La orden de restricción del gobierno de Trump es inquietante; parece un intento de debilitar a Anthropic.

Anteriormente, Anthropic sostuvo que el Departamento de Defensa de EE. UU. y el gobierno de Trump la incluyeron como “riesgo para la cadena de suministro” y ordenaron que las agencias gubernamentales detuvieran el uso de su tecnología, vulnerando los derechos de la empresa bajo la Primera Enmienda.

Punto de controversia: el conflicto surge por la limitación de uso con fines bélicos

Este enfrentamiento que se ha prolongado durante meses tiene su origen en que Anthropic se niega a permitir que el Departamento de Defensa use su modelo Claude para sistemas de armas letales totalmente autónomos o para la vigilancia masiva en el país.

A principios de este mes, Anthropic presentó una demanda. En el escrito, la empresa argumentó que el reconocimiento de riesgo para la cadena de suministro y otras medidas de sanción podrían causar a la empresa pérdidas de cientos de millones e incluso decenas de miles de millones de dólares. En la demanda, la empresa afirmó:

Estas acciones son inéditas y violan la ley. La Constitución no permite que el gobierno castigue a una empresa con su enorme poder, simplemente porque esa empresa ejerce un derecho protegido de libertad de expresión.

Por el momento, la medida cautelar temporal se mantendrá durante una semana, mientras el tribunal revisa el caso.

El resultado de este caso no solo se relaciona con los intereses comerciales de Anthropic, sino que también tendrá un efecto demostrativo más amplio sobre los límites del poder del gobierno para contratar servicios de inteligencia artificial, y sobre si las empresas tecnológicas pueden establecer restricciones de uso ético en los contratos.

Además, la decisión impactará directamente el plan del gobierno para que las agencias federales reemplacen a Claude. Dado que la tecnología de Anthropic ya está profundamente integrada en las operaciones del gobierno, el proceso de sustitución ya enfrentaba dificultades considerables.

El Departamento de Defensa de EE. UU. ya ha utilizado ampliamente Claude en operaciones militares, incluidas tareas como el análisis para la selección de objetivos y los ataques de misiles.

La jueza cuestiona la lógica del gobierno; se examinan las declaraciones del secretario de Defensa

Durante la audiencia, la jueza Lin mostró un claro escepticismo respecto a los argumentos del gobierno.

Le preguntó al abogado del gobierno, de forma insistente, que si el Departamento de Defensa puede terminar directamente la relación contractual con Anthropic, ¿por qué recurrir al mecanismo de reconocimiento de riesgo para la cadena de suministro? Y señaló de manera directa que “esto parece ser un medio deliberado para presionar a Anthropic”.

En cuanto al tema del secretario de Defensa Pete Hegseth, el abogado del gobierno argumentó que Hegseth publicó en redes sociales que cualquier contratista que tenga negocios con las fuerzas armadas estadounidenses no puede colaborar con Anthropic, pero que esa declaración no tiene efecto legal y, por tanto, no constituye el daño irreparable que la empresa alega en su demanda.

Cuando Lin preguntó al abogado del gobierno por qué Hegseth publicaría una declaración sin ningún fundamento legal, este señaló que no podía responder.

Lin también señaló que, por lo que parece, la serie de acciones del gobierno contra Anthropic no se basa en consideraciones concretas de seguridad nacional. Lin escribió en el fallo:

El Departamento de Defensa de EE. UU. no tiene justificación; solo a partir de que Anthropic, de manera franca, insiste en la restricción, infiere que podría ser un saboteador.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado