El jefe de Palantir en Reino Unido dice que depende de los militares decidir cómo se utiliza la focalización de IA en la guerra

El jefe de Palantir UK afirma que son los ejércitos quienes deciden cómo se utiliza el objetivo con IA en la guerra

hace 1 día

CompartirGuardar

Añadir como favorito en Google

Marc Cieslak,corresponsal de IAy

Matt Murphy,BBC Verify

Louis Mosley, de Palantir, dice que los ejércitos son responsables de cómo se utilizan los sistemas de IA

El gigante tecnológico Palantir ha rechazado las preocupaciones de que el uso militar de sus plataformas de IA pueda llevar a riesgos imprevistos, en una entrevista exclusiva con la BBC, insistiendo en que la forma en que se utiliza la tecnología es responsabilidad de sus clientes militares.

Esto ocurre mientras expertos han expresado preocupación por el uso de la plataforma de defensa impulsada por IA de Palantir - Maven Smart System - durante tiempos de guerra y por su supuesto uso en ataques de EE. UU. contra Irán.

Los analistas han advertido que el uso de la plataforma por parte del ejército, que ayuda al personal a planificar ataques, deja poco tiempo para la “verificación significativa” de su salida y podría llevar a que se impacten objetivos incorrectos.

Pero el jefe de Palantir para el Reino Unido y Europa, Louis Mosley, le dijo a la BBC en una entrevista amplia que, si bien plataformas de IA como Maven han sido “instrumentales” para la gestión estadounidense de la guerra de Irán, la responsabilidad de cómo se utiliza su salida debe permanecer siempre “con la organización militar”.

“Siempre hay un humano en el circuito, así que siempre hay un humano que toma la decisión final. Ese es el planteamiento actual.”

El Maven Smart System fue lanzado por el Pentágono en 2017 y está diseñado para acelerar las decisiones de apuntado militar reuniendo grandes cantidades de datos, incluidos una gama de inteligencia, imágenes satelitales y de drones.

El sistema analiza esos datos y luego puede proporcionar recomendaciones para el objetivo. También puede sugerir el nivel de fuerza a utilizar en función de la disponibilidad de personal y hardware militar, como aviones.

Pero el escrutinio ha crecido sobre el uso de este tipo de herramientas en la guerra. En febrero, el Pentágono anunció que dejaría de implementar el sistema de IA Claude de Anthropic - que ayuda a impulsar Maven - después de que la empresa se negara a permitir el uso de su IA en armas y vigilancia autónomas. Palantir dice que alternativas pueden reemplazarlo.

Desde que comenzó la guerra con Irán en febrero, se ha reportado que EE. UU. ha utilizado Maven para planificar ataques en todo el país.

Imágenes de demostración del Maven Smart System de Palantir

Impulsado por la BBC sobre el riesgo de que Maven sugiera objetivos incorrectos - que podrían incluir civiles - Mosley insistió en que la plataforma solo está destinada a servir como guía para acelerar el proceso de toma de decisiones del personal militar y que no debe verse como un sistema de apuntado automatizado.

“Podrías pensarlo como una herramienta de apoyo”, dijo Mosley. “Les permite sintetizar enormes cantidades de información que antes tendrían que haber hecho manualmente, una por una.”

Sin embargo, Mosley se remitió a ejércitos individuales cuando la BBC lo desafió sobre el riesgo de que los comandantes, bajo presión de tiempo, ordenaran a sus oficiales que tomen la salida de Maven como si estuviera aprobada sin más, con un sello de goma.

“Eso es realmente una pregunta para nuestros clientes militares. Ellos son los que deciden el marco de políticas que determina quién puede tomar qué decisión”, dijo. “No es nuestro papel.”

Desde el 28 de febrero, EE. UU. ha lanzado más de 11.000 ataques contra Irán, muchos de ellos presuntamente identificados por Maven.

El almirante Brad Cooper, jefe del ejército de EE. UU. en Oriente Medio, ha elogiado los sistemas de IA por ayudar a los oficiales a “revisar en segundos enormes cantidades de datos, para que nuestros líderes puedan abrirse paso entre el ruido y tomar decisiones más inteligentes más rápido que el enemigo, que no puede reaccionar”.

La empresa de IA Anthropic busca un experto en armas para detener a los usuarios por ‘mal uso’

OpenAI cambia el acuerdo con el ejército de EE. UU. tras las críticas

Trump ordena al gobierno detener el uso de Anthropic en la batalla por el uso de IA

Pero algunos se preocupan de que la participación de la IA en la planificación de misiones cree riesgos significativos.

“Esta priorización de la velocidad y la escala y el uso de la fuerza deja muy poco tiempo para una verificación significativa de los objetivos para asegurarse de que no incluyan objetivos civiles accidentalmente”, dijo la profesora Elke Schwarz, de la Queen Mary University of London.

“Si existe el riesgo de matar y cooptas mucho de tu pensamiento crítico para que lo haga un software que se ocupará de esas cosas por ti, entonces simplemente te vuelves dependiente del software”, añadió. “Es una carrera hacia abajo”.

En las últimas semanas, funcionarios del Pentágono se han enfrentado a preguntas sobre si herramientas de IA como Maven se usaron para identificar objetivos en el mortal ataque a una escuela en el pueblo iraní de Minab. Funcionarios iraníes dijeron que el ataque mató a 168 personas, incluidos alrededor de 110 niños, el primer día de la guerra.

En el Congreso, varios demócratas de alto nivel han pedido un mayor escrutinio de plataformas de IA como Maven. La congresista Sara Jacobs - miembro del Comité de Servicios Armados de la Cámara - pidió reglas y regulaciones claramente aplicadas sobre cómo y cuándo se utilizan los sistemas de IA.

“Las herramientas de IA no son 100% fiables: pueden fallar de maneras sutiles y, aun así, los operadores continúan confiando demasiado en ellas”, dijo a NBC News el mes pasado.

“Tenemos la responsabilidad de imponer medidas de control estrictas sobre el uso militar de la IA y garantizar que exista un humano en el circuito en cada decisión de usar fuerza letal, porque el costo de hacerlo mal podría ser devastador para los civiles y para los miembros del servicio que llevan a cabo estas misiones.”

Pero Mosley rechazó las sugerencias de que la velocidad de la plataforma de su empresa está apresurando la toma de decisiones en el Pentágono y potencialmente creando situaciones peligrosas. En cambio, argumentó que la velocidad a la que ahora actúan los comandantes es una “consecuencia del aumento de la eficiencia” que Maven ha habilitado.

Citando “seguridad operativa”, el Pentágono se negó a comentar cuando la BBC se acercó para saber cómo se utilizarán en el futuro sistemas de IA como Maven o quién sería el responsable si algo saliera mal.

Pero funcionarios en EE. UU. parecen estar avanzando con planes para integrar aún más Maven en sus sistemas.

La semana pasada, la agencia de noticias Reuters informó que el Pentágono había designado a Maven como “un programa oficial de referencia” - estableciéndolo como una tecnología que se integrará a largo plazo en todo el ejército de EE. UU.

En una carta obtenida por Reuters, el subsecretario de Defensa, Steve Feinberg, dijo que la plataforma proporcionaría a los comandantes “las herramientas más recientes necesarias para detectar, disuadir y dominar a nuestros adversarios en todos los ámbitos”.

Información adicional de Jemimah Herd

Inteligencia artificial

Guerra de Irán

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Gate Fun en tendencia

    Ver más
  • Cap.M.:$2.23KHolders:1
    0.00%
  • Cap.M.:$2.23KHolders:0
    0.00%
  • Cap.M.:$2.24KHolders:2
    0.24%
  • Cap.M.:$2.23KHolders:2
    0.00%
  • Cap.M.:$2.22KHolders:1
    0.00%
  • Anclado