Un juez de EE. UU. bloquea la prohibición de Trump a la tecnología de IA de Anthropic

TLDR

  • Un juez federal en San Francisco emitió una orden de restricción preliminar bloqueando la prohibición del Pentágono sobre el AI Claude de Anthropic
  • La jueza Rita Lin calificó la prohibición como “una represalia clásica e ilegal de la Primera Enmienda”
  • La disputa comenzó después de que Anthropic se negó a permitir que Claude se utilizara para armas autónomas letales o vigilancia masiva
  • Anthropic tenía el 32% del mercado de AI empresarial en 2025, por delante de OpenAI con un 25%
  • La orden de restricción está en pausa durante siete días para permitir que el gobierno presente una apelación

💥 ¡Encuentra el próximo KnockoutStock! Obtén precios en vivo, gráficos y puntajes KO de KnockoutStocks.com, la plataforma impulsada por datos que clasifica cada acción por calidad y potencial de ruptura.


Un juez federal de EE. UU. ha bloqueado temporalmente la prohibición de la administración Trump sobre el uso gubernamental de la tecnología AI de Anthropic, deteniendo medidas que la compañía dijo podrían costarle miles de millones en ingresos perdidos.

ÚLTIMA HORA: Anthropic ha recibido una orden de restricción preliminar respecto a la designación de “riesgo en la cadena de suministro” del Pentágono por parte de la jueza Rita Lin en California, pero se permite una suspensión por una semana

— Hadas Gold (@Hadas_Gold) 26 de marzo de 2026

La jueza Rita Lin del Tribunal de Distrito de EE. UU. para el Distrito Norte de California emitió la orden de restricción preliminar el jueves. Ella puso la orden en espera durante siete días para dar al gobierno la oportunidad de apelar.

El caso se centra en un acuerdo firmado en julio de 2025 entre Anthropic y el Pentágono. El contrato habría hecho de Claude el primer modelo de AI de frontera aprobado para su uso en redes clasificadas.

Las negociaciones se rompieron en febrero de 2026. El Pentágono quería renegociar, exigiendo que Anthropic permitiera el uso militar de Claude “para todos los fines legales” y sin restricciones.

Anthropic se negó. La compañía dijo que su tecnología no debería ser utilizada para armas autónomas letales ni para la vigilancia masiva de los estadounidenses.

El 27 de febrero, el presidente Trump ordenó a todas las agencias federales que dejaran de usar productos de Anthropic. Escribió en Truth Social que la compañía había cometido un “ERROR DESASTROSO al intentar FORZAR al Departamento de Guerra.”

El Departamento de Defensa luego designó a Anthropic como un riesgo en la cadena de suministro de seguridad nacional. Anthropic demandó en un tribunal federal en Washington, DC, el 9 de marzo, argumentando que el secretario de Defensa, Pete Hegseth, había excedido su autoridad.



La Jueza Cuestiona el Razonamiento del Gobierno

Se llevó a cabo una audiencia judicial de 90 minutos en San Francisco el 24 de marzo. La jueza Lin cuestionó a los abogados del gobierno sobre si Anthropic estaba siendo castigada por criticar públicamente al Pentágono.

En su fallo, Lin dijo que la prohibición no parecía estar dirigida a intereses de seguridad nacional. “Si la preocupación es la integridad de la cadena de mando operacional, el Departamento de Guerra podría simplemente dejar de usar a Claude,” escribió.

Ella agregó que las medidas parecían “diseñadas para castigar a Anthropic” y las calificó de “arbitrarias, caprichosas y un abuso de discreción.”

Durante la audiencia, un abogado de Anthropic señaló que el Pentágono puede revisar cualquier modelo de AI antes de desplegarlo. Anthropic también no tiene forma de detener un modelo de funcionar, cambiar cómo opera o ver cómo lo está usando el ejército.

Lo que Ambas Partes Argumentaron

Un abogado del gobierno argumentó que Anthropic destruyó la confianza durante las negociaciones del contrato al intentar dictar políticas del Pentágono. El abogado dijo que el gobierno estaba preocupado por el riesgo de “sabotaje futuro” por parte de Anthropic.

La jueza Lin rechazó ese razonamiento. Dijo que el Departamento de Justicia no tenía una “base legítima” para concluir que la postura de Anthropic sobre las restricciones podría llevarla a convertirse en una saboteadora.

Anthropic tenía el 32% del mercado de AI empresarial en 2025, por delante de OpenAI con un 25%, según Menlo Ventures. Una prohibición a nivel gubernamental habría puesto en riesgo esa posición.

Anthropic dijo que estaba “agradecida con el tribunal por actuar rápidamente.” La compañía también presentó una queja separada en un tribunal de apelaciones en Washington, DC, centrada en la ley de adquisiciones.

El caso es Anthropic v. Departamento de Guerra de EE. UU., 26-cv-01996, Tribunal de Distrito de EE. UU., Distrito Norte de California.


¿Considerando una nueva acción? Puede que quieras ver primero lo que hay en nuestra lista de seguimiento.

Nuestro equipo en Knockout Stocks sigue a los analistas de mejor rendimiento y las tendencias del mercado para detectar posibles ganadores temprano. Hemos identificado cinco acciones que están ganando atención silenciosa y que podrían valer la pena observar ahora. Crea tu cuenta gratuita para desbloquear el informe completo y obtener información continua sobre acciones.


✨ Oferta por Tiempo Limitado

Obtén 3 Ebooks de Acciones Gratis

            Descubre acciones de mejor rendimiento en AI, Cripto y Tecnología con análisis de expertos.
        

        

            *                       
                    **Las 10 Mejores Acciones de AI** - Empresas líderes en AI
                
            *                       
                    **Las 10 Mejores Acciones de Cripto** - Líderes en blockchain
                
            *                       
                    **Las 10 Mejores Acciones de Tecnología** - Gigantes tecnológicos
                
        

        

            
                📥 Obtén tus Ebooks Gratis
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado