Anthropic gana la primera batalla judicial sobre la lista negra del Pentágono y la prohibición a Trump

robot
Generación de resúmenes en curso

Anthropic ganó una victoria clave en un tribunal temprano después de que un juez federal en San Francisco concediera la solicitud de la startup de IA para una orden judicial preliminar, bloqueando temporalmente a la administración Trump de hacer cumplir acciones que incluyeron a la empresa en una lista negra y restringieron a las agencias federales de utilizar sus modelos Claude.

La jueza del distrito de EE. UU. Rita Lin encontró que Anthropic había demostrado una probabilidad de éxito en partes centrales de su caso, escribiendo que las acciones del gobierno parecían más punitivas que impulsadas por la seguridad. Reuters informó que Lin dijo que castigar a Anthropic por llamar la atención pública sobre la posición de contratación del gobierno parecía ser una represalia ilegal bajo la Primera Enmienda.

La orden impide a la administración, por ahora, implementar o hacer cumplir la directiva del presidente Donald Trump contra Anthropic y avanzar en el esfuerzo del Pentágono por tratar a la empresa como un riesgo en la cadena de suministro de seguridad nacional. Reuters informó que la decisión se mantiene por siete días para permitir al gobierno tiempo para apelar.

La disputa comenzó después de que Anthropic se negó a eliminar completamente las restricciones de seguridad de Claude en las negociaciones con el Pentágono. La empresa dijo que no aceptaría usos relacionados con armas completamente autónomas sin supervisión humana ni con la vigilancia masiva de estadounidenses, aunque seguía abierta a un trabajo gubernamental más amplio.

Trump luego se movió a finales de febrero para ordenar a las agencias federales que dejaran de usar la tecnología de Anthropic, mientras que el secretario de Defensa Pete Hegseth etiquetó a la empresa como un riesgo en la cadena de suministro, una designación que podría obligar a los contratistas de defensa a evitar Claude en trabajos militares. Anthropic argumentó que esta era la primera vez que se usaba públicamente tal etiqueta contra una empresa estadounidense de esta manera.

Las apuestas son altas porque Anthropic se ha convertido en un importante proveedor de IA para el gobierno de EE. UU. La empresa tenía un contrato del Pentágono por $200 millones y ya había desplegado modelos en redes clasificadas del Departamento de Defensa antes de que la relación se rompiera por los términos de uso.

La administración Trump se basó en diferentes autoridades legales para la lista negra del Pentágono y para las restricciones más amplias de adquisición federal, obligando a Anthropic a impugnarlas en diferentes tribunales. Un caso separado relacionado con la contratación del gobierno civil todavía avanza en Washington.

                    **Divulgación:** Este artículo fue editado por Estefano Gomez. Para obtener más información sobre cómo creamos y revisamos contenido, consulte nuestra Política Editorial.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado