Anthropic gana la primera batalla judicial sobre la lista negra del Pentágono y la prohibición a Trump

robot
Generación de resúmenes en curso

Anthropic ganó una victoria clave en un tribunal temprano después de que un juez federal en San Francisco concediera la solicitud de la startup de IA para una orden de restricción preliminar, bloqueando temporalmente a la administración Trump de hacer cumplir acciones que incluyeron a la empresa en una lista negra y restringieron a las agencias federales de usar sus modelos Claude.

La jueza del Distrito de EE. UU. Rita Lin encontró que Anthropic había demostrado una probabilidad de éxito en partes fundamentales de su caso, escribiendo que las acciones del gobierno parecían más punitivas que impulsadas por la seguridad. Reuters informó que Lin dijo que castigar a Anthropic por atraer la atención pública sobre la posición de contratación del gobierno parecía ser una represalia ilegal de la Primera Enmienda.

La orden impide a la administración, por ahora, implementar o hacer cumplir la directiva del presidente Donald Trump contra Anthropic y avanzar en el esfuerzo del Pentágono por tratar a la empresa como un riesgo en la cadena de suministro de seguridad nacional. Reuters informó que la decisión se mantiene durante siete días para permitir que el gobierno tenga tiempo para apelar.

La disputa comenzó después de que Anthropic se negó a eliminar completamente las restricciones de seguridad de Claude en las negociaciones con el Pentágono. La empresa dijo que no aceptaría usos relacionados con armas completamente autónomas sin supervisión humana ni con la vigilancia masiva de estadounidenses, incluso mientras permanecía abierta a un trabajo gubernamental más amplio.

Trump luego se movió a finales de febrero para ordenar a las agencias federales que dejaran de usar la tecnología de Anthropic, mientras que el secretario de Defensa Pete Hegseth etiquetó por separado a la empresa como un riesgo en la cadena de suministro, una designación que podría obligar a los contratistas de defensa a evitar Claude en trabajos militares. Anthropic argumentó que esta era la primera vez que se usaba públicamente tal etiqueta contra una empresa estadounidense de esta manera.

Los riesgos son altos porque Anthropic se ha convertido en un importante proveedor de IA para el gobierno de EE. UU. La empresa tenía un contrato de $200 millones con el Pentágono y ya había desplegado modelos en redes clasificadas del Departamento de Defensa antes de que la relación se rompiera debido a los términos de uso.

La administración Trump se basó en autoridades legales separadas para la lista negra del Pentágono y para restricciones más amplias de adquisiciones federales, obligando a Anthropic a impugnarlas en diferentes tribunales. Un caso separado relacionado con la contratación del gobierno civil aún avanza en Washington.

                    **Divulgación:** Este artículo fue editado por Estefano Gomez. Para más información sobre cómo creamos y revisamos contenido, consulta nuestra Política Editorial.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado