El Departamento de Defensa de Estados Unidos selecciona 7 empresas para la adquisición de IA confidencial… incluyendo OpenAI y Google, Anthropic queda excluido.

robot
Generación de resúmenes en curso

El Departamento de Defensa de Estados Unidos publicó la lista de siete empresas que firmaron contratos de adquisición de inteligencia artificial (IA). Incluye a Amazon Web Services, Google, Microsoft, Nvidia, OpenAI, SpaceX, y la startup Reflection AI, que es relativamente menos conocida, mientras que Anthropic fue excluida.

Este contrato tiene como objetivo ampliar la gama de servicios proporcionados a través del portal interno de IA del Departamento de Defensa, “GenAI.mil”. Según informes de medios extranjeros, desde su lanzamiento el año pasado, más de 1.300.000 miembros del Departamento de Defensa lo han utilizado y se han construido decenas de miles de agentes de IA. El Departamento de Defensa se centra en esto para reducir el trabajo de integración de datos y acelerar el proceso de toma de decisiones.

Entorno de máxima seguridad para el manejo de información confidencial

Los productos de IA involucrados en el nuevo contrato se aplicarán en entornos de “Nivel de Impacto 6” y “Nivel de Impacto 7”. Esto corresponde a los niveles del sistema en los que el Departamento de Defensa puede almacenar información confidencial, en realidad, los ámbitos con los requisitos de seguridad más altos. Aunque no se han divulgado detalles específicos sobre qué productos están incluidos, claramente esta adquisición ha superado la fase experimental y ha entrado en una etapa de “operación de IA confidencial”.

También se presta mucha atención a los activos que cada empresa puede ofrecer. Nvidia, conocida por sus procesadores gráficos, también posee herramientas de desarrollo de redes neuronales y modelos de lenguaje de código abierto. En particular, su serie de modelos basada en la arquitectura “Mamba-Transformer”, que reduce el uso de memoria, se considera potencialmente aplicable en entornos de operaciones limitadas, como en el ámbito de la defensa.

SpaceX y Reflection AI también llaman la atención… Anthropic fue excluida

La inclusión de SpaceX también resulta notable. Este año, SpaceX adquirió la serie de modelos de lenguaje “Grok” mediante la fusión con xAI Holdings, fortaleciendo su presencia como proveedor de IA. Además, la posible expansión de su conjunto de modelos especializados en programación ha llevado a algunos a pensar que podría acelerar su transición de una empresa aeroespacial a un proveedor de IA para defensa.

Reflection AI es el nombre más desconocido en esta lista. Fundada en 2024 por investigadores de Google DeepMind, esta startup aún no ha lanzado productos comerciales, pero en el año pasado recaudó 2 mil millones de dólares, aproximadamente 2.95 billones de won surcoreanos. Medios estadounidenses informaron que la compañía está preparando el lanzamiento de un modelo de lenguaje entrenado con decenas de billones de tokens.

En comparación, la exclusión de Anthropic fue casi predecible. El ministro de Defensa, Pete Hegseth, designó a Anthropic como objeto de “riesgo en la cadena de suministro” en febrero de este año, y en marzo se concretó esta medida. Como resultado, se prohibió el uso de Claude por parte del Departamento de Defensa y el acceso de las empresas militares a la IA también se vio restringido.

Contexto de la prohibición de Claude — Conflicto con la cláusula de “todos los fines legales”

El núcleo del conflicto radica en los términos del contrato. El ministro Hegseth afirmó que, debido a que Anthropic no acepta los requisitos del Departamento de Defensa de usar la IA “para todos los fines legales”, se decidió imponer sanciones. La compañía temía que esta formulación pudiera dejar espacio para que los modelos de IA se usaran en monitoreo masivo interno o en el desarrollo de armas autónomas. Finalmente, en marzo de este año, la empresa presentó una demanda contra la designación por riesgos en la cadena de suministro.

Sin embargo, la situación no es tan simple. Según informes de medios extranjeros, a pesar de la prohibición, el Departamento de Defensa supuestamente sigue usando “Claude Mitos Preview” de Anthropic. Aunque este modelo ha sido adoptado por algunas otras agencias federales, aún no se ha hecho público. La razón es su capacidad excepcional para detectar vulnerabilidades de seguridad “zero-day” que aún no han sido identificadas.

El contrato de adquisición de IA del Departamento de Defensa de EE. UU. no solo representa una simple introducción tecnológica, sino que también se interpreta como una señal que indica qué empresas de IA pueden ser confiables dentro del sistema de seguridad nacional. Además, el caso de Anthropic muestra que, más allá del rendimiento, los términos del contrato y la aceptación de políticas se han convertido en variables clave en la cadena de suministro de IA.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado