Un juez federal bloquea temporalmente al Pentágono para que no etiquete a la empresa de IA Anthropic como un riesgo en la cadena de suministro

SAN FRANCISCO (AP) — Una jueza federal falló a favor de la empresa de inteligencia artificial Anthropic al bloquear temporalmente que el Pentágono etiquete a la compañía como un riesgo en la cadena de suministro.

La jueza federal Rita Lin dijo el jueves que también bloqueaba la directiva del presidente Donald Trump que ordenaba a todas las agencias federales dejar de usar Anthropic.

La decisión de Lin siguió a una audiencia de 90 minutos en el tribunal federal de San Francisco el martes, en la que cuestionó por qué la administración Trump tomó la medida extraordinaria de denunciar a Anthropic como un riesgo en la cadena de suministro después de que las negociaciones sobre un contrato de defensa fracasaron por el intento de la compañía de impedir que su tecnología de IA se desplegara en armas completamente autónomas o en la vigilancia de estadounidenses.

Anthropic, creador del chatbot Claude, había solicitado a Lin que emitiera una orden de emergencia para eliminar un estigma que la compañía alega que fue aplicado injustamente como parte de una “campaña ilegal de represalias” que llevó a la empresa con sede en San Francisco a demandar a la administración Trump a principios de este mes. El Pentágono argumentó que debería poder usar Claude de la manera que considere legal.

Lin dijo que su fallo no se trata de ese debate de política pública, sino de las acciones del gobierno en respuesta a él.

Relacionado con las historias Las historias relacionadas

Cierre de algunos aeropuertos en EE. UU. debido a la escasez de personal de la TSA tendría grandes consecuencias, dicen expertos

La escalada del conflicto en el este de Congo con el uso de armas pesadas y drones, advierte la ONU

Si la preocupación es la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de usar Claude. En cambio, estas medidas parecen diseñadas para castigar a Anthropic, escribió Lin.

Anthropic también ha presentado un caso separado y más limitado que aún está pendiente en la corte de apelaciones federal en Washington, D.C.

Lin escribió que su orden se retrasará una semana y no requiere que el Pentágono use los productos de Anthropic ni impide que la compañía pase a otros proveedores de IA.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado