El jefe de Palantir en Reino Unido dice que depende de los militares decidir cómo se utiliza la focalización de IA en la guerra

El jefe de Palantir UK afirma que corresponde a los militares decidir cómo se usa el apuntado mediante IA en la guerra

Hace 8 minutos

CompartirGuardar

Añadir como preferido en Google

Marc Cieslak, corresponsal de IA y

Matt Murphy, Verificación de la BBC

El director de Palantir, Louis Mosley, afirma que son los militares los responsables de cómo se utilizan los sistemas de IA

El gigante tecnológico Palantir ha rechazado las preocupaciones de que el uso militar de sus plataformas de IA pueda generar riesgos imprevistos, en una entrevista exclusiva con la BBC, insistiendo en que la forma en que se emplea la tecnología es responsabilidad de sus clientes militares.

Ocurre en un momento en que expertos han expresado su preocupación por el uso de la plataforma de defensa impulsada por IA de Palantir, el Sistema inteligente Maven - durante las operaciones bélicas y por su uso reportado en ataques de Estados Unidos contra Irán.

Los analistas han advertido que el uso que hace el ejército de la plataforma, que ayuda al personal a planificar ataques, deja poco tiempo para la “verificación significativa” de su salida y podría llevar a que se golpeen objetivos incorrectos.

Pero el jefe de Palantir para el Reino Unido y Europa, Louis Mosley, le dijo a la BBC, en una entrevista amplia, que si bien plataformas de IA como Maven han sido “instrumentales” para la gestión de la guerra contra Irán por parte de Estados Unidos, la responsabilidad de cómo se utiliza su salida debe permanecer siempre “en la organización militar”.

“Siempre hay un humano en el circuito, así que siempre hay un humano que toma la decisión final. Así es el esquema actual.”

El Sistema inteligente Maven fue lanzado por el Pentágono en 2017 y está diseñado para acelerar las decisiones de apuntado militar al reunir grandes volúmenes de datos, incluidos distintos tipos de inteligencia, imágenes de satélite y de drones.

El sistema analiza estos datos y luego puede proporcionar recomendaciones para el apuntado. También puede sugerir el nivel de fuerza a utilizar en función de la disponibilidad de personal y material militar, como aeronaves.

Pero el escrutinio sobre el uso de este tipo de herramientas en la guerra ha ido en aumento. En febrero, el Pentágono anunció que comenzaría a eliminar gradualmente el sistema de IA Claude de Anthropic —que ayuda a potenciar Maven— después de que la empresa se negara a permitir el uso de su IA en armas y vigilancia autónomas. Palantir dice que alternativas pueden reemplazarlo.

Desde que comenzó la guerra con Irán en febrero, Estados Unidos, según se informa, ha usado Maven para planificar ataques en todo el país.

Video de demostración del Sistema inteligente Maven de Palantir

Impulsado por la BBC sobre el riesgo de que Maven sugiera objetivos incorrectos —que podrían incluir civiles—, Mosley insistió en que la plataforma solo está destinada a servir como guía para acelerar el proceso de toma de decisiones del personal militar y que no debe verse como un sistema automatizado de apuntado.

“Podrías pensar en ello como una herramienta de apoyo”, dijo Mosley. “Les permite sintetizar cantidades enormes de información que antes tendrían que haber hecho manualmente, una por una”.

Sin embargo, Mosley se remitió a los militares individuales cuando la BBC le planteó el riesgo de que comandantes con poco tiempo ordenaran a sus oficiales que aceptaran la salida de Maven como si estuviera aprobada de antemano.

“Ese es realmente un asunto para nuestros clientes militares. Ellos son quienes deciden el marco de políticas que determina quién puede tomar qué decisión”, dijo. “Esa no es nuestra función”.

Desde el 28 de febrero, Estados Unidos ha lanzado más de 11.000 ataques contra Irán, muchos de ellos, según se informa, identificados por Maven.

El almirante Brad Cooper, jefe de las fuerzas militares estadounidenses en Oriente Medio, ha elogiado los sistemas de IA por ayudar a los oficiales a “filtrar enormes cantidades de datos en segundos, para que nuestros líderes puedan abrirse paso a través del ruido y tomar decisiones más inteligentes más rápido que el enemigo, que no puede reaccionar”.

La empresa de IA Anthropic busca un experto en armas para detener a los usuarios de “uso indebido”

OpenAI cambia el acuerdo con el ejército de EE. UU. tras la reacción

Trump ordena al gobierno que deje de usar Anthropic en la batalla por el uso de IA

Pero algunos temen que la participación de la IA en la planificación de misiones genere riesgos significativos.

“Esta priorización de la velocidad y la escala y el uso de la fuerza, entonces, deja muy poco tiempo para una verificación significativa de los objetivos y asegurarse de que no incluyan objetivos civiles accidentalmente”, dijo la profesora Elke Schwarz, de la Queen Mary University of London.

“Si hay un riesgo de matar y le cedes mucho de tu pensamiento crítico a un software que se encargará de estas cosas por ti, entonces simplemente te vuelves dependiente del software”, añadió. “Es una carrera hacia abajo”.

En las últimas semanas, funcionarios del Pentágono se han enfrentado a preguntas sobre si herramientas de IA como Maven se usaron para identificar objetivos en el letal ataque contra una escuela en el pueblo iraní de Minab. Funcionarios iraníes dijeron que el ataque mató a 168 personas, incluyendo alrededor de 110 niños, en el primer día de la guerra.

En el Congreso, varios demócratas de alto nivel han pedido un mayor escrutinio de plataformas de IA como Maven. La representante Sara Jacobs —miembro del Comité de Servicios Armados de la Cámara— pidió reglas y regulaciones claramente exigibles sobre cómo y cuándo se usan los sistemas de IA.

“Las herramientas de IA no son 100% confiables: pueden fallar de maneras sutiles y, aun así, los operadores continúan confiando demasiado en ellas”, dijo a NBC News el mes pasado.

“Tenemos la responsabilidad de imponer salvaguardas estrictas sobre el uso de IA por parte del ejército y garantizar que haya un humano en el circuito en cada decisión de usar fuerza letal, porque el costo de equivocarse podría ser devastador para los civiles y para los integrantes del servicio que llevan a cabo estas misiones”.

Pero Mosley rechazó las sugerencias de que la velocidad de la plataforma de su empresa está acelerando la toma de decisiones en el Pentágono y potencialmente creando situaciones peligrosas. En su lugar, argumentó que la velocidad con la que ahora actúan los comandantes es una “consecuencia del aumento de la eficiencia” que Maven ha habilitado.

Citando la “seguridad operativa”, el Pentágono se negó a comentar cuando la BBC preguntó sobre cómo se utilizarán en el futuro sistemas de IA como Maven o quién sería responsable si algo saliera mal.

Pero en Estados Unidos parece que los funcionarios están avanzando con planes para integrar aún más Maven en sus sistemas.

La semana pasada, la agencia de noticias Reuters informó que el Pentágono designó a Maven como “un programa oficial de referencia” —estableciéndolo como una tecnología que se integrará a largo plazo en todo el ejército estadounidense.

En una carta obtenida por Reuters, el subsecretario de Defensa Steve Feinberg dijo que la plataforma brindaría a los comandantes “las herramientas más recientes necesarias para detectar, disuadir y dominar a nuestros adversarios en todos los ámbitos”.

Información adicional de Jemimah Herd

Inteligencia artificial

Guerra de Irán

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado