Acabo de terminar de leer algunos artículos de investigación sobre lo que ocurrió a finales de febrero en la Operación Epic Fury, y honestamente, todo esto parece una clase magistral sobre cómo funciona la guerra moderna ahora—excepto que nadie está hablando realmente de la infraestructura subyacente.



Esto fue lo que me llamó la atención: no fue solo otra operación militar. Básicamente fue una prueba de estrés de IA en una zona de guerra en vivo. Todo dependía de comprimir lo que los militares llaman el ciclo sensor-decisión-disparador en minutos, a veces segundos. Quien logre esa compresión tendrá el control del próximo década de influencia geopolítica.

Déjame explicar quiénes son los actores porque aquí es donde se pone interesante.

OpenAI básicamente pasó de decir "no hacemos cosas militares" a convertirse en lo que podría ser la suscripción SaaS más cara del Pentágono en unos dos años. Sam Altman anunció que habían cerrado un acuerdo para desplegar modelos GPT en redes clasificadas para análisis de inteligencia, traducción, simulaciones de combate. Las líneas rojas públicas parecen razonables—sin vigilancia masiva interna, los humanos permanecen en el ciclo en decisiones letales. Pero aquí está lo importante: alimentar modelos con imágenes satelitales, inteligencia de señales, flujos de redes sociales y que estos modelos clasifiquen objetivos, predigan movimientos, evalúen riesgos? Eso es básicamente un cerebro de campo de batalla. Y aparentemente vale cientos de millones.

Anthropic fue en la dirección opuesta. Se mantuvieron firmes en límites éticos más estrictos durante las negociaciones con el Pentágono y fueron completamente demolidos por ello. El Secretario de Defensa literalmente los calificó como un "riesgo en la cadena de suministro"—la misma etiqueta que antes se usaba para empresas tecnológicas chinas. Esa etiqueta básicamente significaba que los contratistas militares tenían seis meses para sacar a Claude de sus sistemas. El mensaje fue muy claro para todos los que estaban observando: no te opongas a lo que quiere el Pentágono.

Pero aquí es donde reside el verdadero poder: Microsoft y Google. Si las empresas de IA son el cerebro, estos dos son el sistema nervioso central. Sin su infraestructura en la nube, todos esos modelos son solo diapositivas de PowerPoint.

Microsoft Azure vio un aumento de 64 veces en el uso de aprendizaje automático militar israelí en solo unos meses a partir de finales de 2023. Están manejando volúmenes de datos equivalentes a toda la Biblioteca del Congreso. Se usa para transcribir comunicaciones, procesar datos de vigilancia y trabajar con sistemas locales para generar automáticamente listas de objetivos. Microsoft recibió algo de críticas y redujo ciertos servicios, pero los contratos militares principales de IA siguieron en marcha.

El Proyecto Nimbus de Google es aún más cargado políticamente—1.200 millones de dólares en infraestructura en la nube para Israel desde 2021. Los empleados han estado protestando durante años. La infraestructura soporta simulaciones de campo de batalla, fusión de inteligencia, planificación de objetivos complejos. Google sigue diciendo que no es para uso militar ofensivo, pero todos en la industria saben que esa es la funcionalidad principal.

Y aquí es donde realmente se vuelve inquietante. Israel ha estado operando sistemas como Lavender, Gospel y "¿Dónde está Papá?" que básicamente automatizan la identificación de objetivos a gran escala. Lavender mapeó patrones de comportamiento en casi todos los hombres adultos en Gaza, asignó "puntajes de militancia" en una escala del 1 al 100, identificó 37,000 objetivos sospechosos. Gospel marca edificios para bombardeo. "¿Dónde está Papá?" rastrea cuándo los objetivos regresan a casa con sus familias para maximizar el impacto en las bajas. La revisión humana aparentemente toma unos 30 segundos por objetivo.

¿Lo más aterrador? La lógica técnica de estos sistemas es portable. Si tienes datos de comunicación, trayectorias de ubicación, redes sociales de cualquier región, puedes teóricamente traducir esa misma lógica de fábrica de asesinatos algorítmica a cualquier conjunto de objetivos. Algunos analistas creen que eso es exactamente lo que ocurrió durante Epic Fury—una guerra
EPIC5,87%
SAAS-2,69%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado