La Guerra de Irán Muestra Cómo la IA Acelera las "Cadenas de Eliminación" Militares

(MENAFN- The Conversation) La guerra entre EE.UU. e Israel contra Irán ha sido descrita como “la primera guerra de IA”. Pero los despliegues recientes de inteligencia artificial son, en realidad, lo último en una larga historia de avances tecnológicos que valoran la rapidez en la “cadena de muerte” militar.

“Solo 60 segundos — eso fue todo”, afirmó un exagente del Mossad israelí sobre los ataques que mataron al líder supremo de Irán, Ayatollah Ali Khamenei, el 28 de febrero de 2026, el primer día de la guerra entre EE.UU. e Israel contra Irán.

La velocidad y escala de la guerra se han incrementado significativamente con el uso de sistemas de IA. Pero esta necesidad de rapidez conlleva riesgos graves tanto para civiles como para combatientes militares.

Las operaciones militares modernas producen y dependen de una enorme cantidad de inteligencia. Esto incluye llamadas telefónicas y mensajes de texto interceptados, la vigilancia masiva de internet (conocida como “inteligencia de señales”), así como imágenes satelitales y videos de drones patrulleros. Podemos pensar en toda esta inteligencia como datos — y el problema es que hay demasiados.

Ya en 2010, la Fuerza Aérea de EE.UU. estaba preocupada por “nadar en sensores y ahogarse en datos”. Demasiadas horas de grabaciones y demasiados analistas revisando manualmente esta inteligencia.

Los sistemas de IA pueden acelerar dramáticamente el análisis de inteligencia militar. Brad Cooper, jefe del Comando Central de EE.UU. (CentCom), confirmó recientemente el uso de herramientas de IA en la guerra contra Irán, diciendo:

En 2024, una investigación de la Universidad de Georgetown encontró que la 18ª Brigada Aerotransportada del Ejército de EE.UU. había empleado IA para asistir en el procesamiento de inteligencia, reduciendo un equipo de 2,000 a solo 20 personas.

El atractivo de la velocidad

En la Segunda Guerra Mundial, el ciclo de orientación aérea — desde la recopilación de imágenes hasta la elaboración de paquetes de objetivos con informes de inteligencia — podía tomar semanas o incluso meses. Pero en las décadas siguientes, el ejército de EE.UU. emprendió lo que llamó “comprimir la cadena de muerte” — acortar el tiempo entre la identificación de un objetivo y el uso de la fuerza contra él.

Durante la Primera Guerra del Golfo en 1991, el presidente iraquí Saddam Hussein utilizó lanzacohetes móviles que patrullaban el desierto disparando misiles Scud. Para cuando los radares estadounidenses identificaban su ubicación, el lanzacohetes podía estar a millas de distancia. Esta táctica de “disparar y correr” requería tecnología nueva para rastrear estos objetivos móviles.

Un avance clave llegó poco después de los ataques del 11 de septiembre en forma de un dron Predator armado.

En noviembre de 2002, la CIA atacó y mató al líder de Al Qaeda en Yemen, Qaed Salim Sinan al-Harithi. Esto marcó una nueva era de guerra en la que drones pilotados desde bases militares en EE.UU. volaban de forma remota sobre los cielos de Yemen, Somalia, Pakistán, Irak, Afganistán y otros lugares.

Las cámaras potentes de los drones podían tomar videos de alta resolución y transmitirlos a EE.UU. en segundos, permitiendo a los operadores rastrear objetivos móviles. El mismo dron que tenía ojos en el objetivo podía lanzar misiles para matar o destruirlo.

Con mayor velocidad, también aumentan los riesgos

Hace dos décadas, era fácil descartar como exageración la idea de que la próxima era de ciber-guerra podría traer “bombardeos a la velocidad del pensamiento”, una frase acuñada por el historiador estadounidense Nick Cullather en 2003. Sin embargo, con la llegada de la guerra de IA, lo impensable se ha vuelto casi anticuado.

Parte del impulso para emplear herramientas de IA es la sensación de que el pensamiento humano no puede igualar las velocidades de procesamiento habilitadas por los sistemas de IA. La estrategia de inteligencia artificial del Departamento de Defensa de EE.UU. afirma: “La IA militar será una carrera en el futuro previsible, y por eso la velocidad gana… Debemos aceptar que los riesgos de no movernos lo suficientemente rápido superan los riesgos de una alineación imperfecta.”

Aunque los usos precisos de la IA por parte de EE.UU. y otros militares están envueltos en secreto, se ha hecho pública información que resalta los riesgos de su uso en poblaciones civiles.

En Gaza, según fuentes de inteligencia israelíes, los sistemas de IA Lavender y Gospel han sido programados para aceptar hasta 100 víctimas civiles (y ocasionalmente más) en un ataque contra un solo combatiente sospechoso de Hamas. Se estima que más de 75,000 personas han sido asesinadas allí desde el 7 de octubre de 2023.

En febrero de 2024, un ataque aéreo de EE.UU. mató a un estudiante de 20 años, Abdul-Rahman al-Rawi. En ese momento, un alto funcionario estadounidense admitió que los ataques habían utilizado orientación con IA — aunque, de manera confusa, el ejército de EE.UU. ahora dice que “no tiene forma de saber” si usó IA en ataques específicos.

El riesgo es que la IA podría reducir el umbral o el costo de ir a la guerra, ya que las personas juegan un papel cada vez más pasivo en revisar y aprobar el trabajo de la IA.

La integración de la IA en las cadenas de muerte militares se cruza con otros desarrollos alarmantes. Tras años de inacción, el ejército de EE.UU. invirtió más de una década en desarrollar una infraestructura para evitar víctimas civiles en la guerra, pero casi toda ella fue desmantelada bajo la administración Trump.

Los abogados que asesoran al ejército sobre operaciones de orientación, incluyendo el cumplimiento del derecho internacional y las reglas de enfrentamiento, han sido marginados y despedidos.

Mientras tanto, desde el inicio de la guerra en Irán, más de 1,200 civiles han sido asesinados, según el Ministerio de Salud iraní. El 28 de febrero, las fuerzas militares de EE.UU. atacaron una escuela primaria en el sur de Irán, matando al menos a 175 personas, en su mayoría niños.

El secretario de Defensa de EE.UU., Pete Hegseth, ha sido claro: el objetivo del ejército en Irán es “máxima letalidad, no legalidad tibia. Efecto violento, no políticamente correcto”.

Con esa actitud, y privilegiando la rapidez sobre la deliberación, las víctimas civiles se vuelven inevitables, y la responsabilidad, cada vez más difícil de determinar.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado