Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El jefe de Palantir en Reino Unido dice que depende de los militares decidir cómo se utiliza la focalización de IA en la guerra
El jefe de Palantir UK afirma que corresponde a los militares decidir cómo se usa el apuntado mediante IA en la guerra
Hace 8 minutos
CompartirGuardar
Añadir como preferido en Google
Marc Cieslak, corresponsal de IA y
Matt Murphy, Verificación de la BBC
El director de Palantir, Louis Mosley, afirma que son los militares los responsables de cómo se utilizan los sistemas de IA
El gigante tecnológico Palantir ha rechazado las preocupaciones de que el uso militar de sus plataformas de IA pueda generar riesgos imprevistos, en una entrevista exclusiva con la BBC, insistiendo en que la forma en que se emplea la tecnología es responsabilidad de sus clientes militares.
Ocurre en un momento en que expertos han expresado su preocupación por el uso de la plataforma de defensa impulsada por IA de Palantir, el Sistema inteligente Maven - durante las operaciones bélicas y por su uso reportado en ataques de Estados Unidos contra Irán.
Los analistas han advertido que el uso que hace el ejército de la plataforma, que ayuda al personal a planificar ataques, deja poco tiempo para la “verificación significativa” de su salida y podría llevar a que se golpeen objetivos incorrectos.
Pero el jefe de Palantir para el Reino Unido y Europa, Louis Mosley, le dijo a la BBC, en una entrevista amplia, que si bien plataformas de IA como Maven han sido “instrumentales” para la gestión de la guerra contra Irán por parte de Estados Unidos, la responsabilidad de cómo se utiliza su salida debe permanecer siempre “en la organización militar”.
“Siempre hay un humano en el circuito, así que siempre hay un humano que toma la decisión final. Así es el esquema actual.”
El Sistema inteligente Maven fue lanzado por el Pentágono en 2017 y está diseñado para acelerar las decisiones de apuntado militar al reunir grandes volúmenes de datos, incluidos distintos tipos de inteligencia, imágenes de satélite y de drones.
El sistema analiza estos datos y luego puede proporcionar recomendaciones para el apuntado. También puede sugerir el nivel de fuerza a utilizar en función de la disponibilidad de personal y material militar, como aeronaves.
Pero el escrutinio sobre el uso de este tipo de herramientas en la guerra ha ido en aumento. En febrero, el Pentágono anunció que comenzaría a eliminar gradualmente el sistema de IA Claude de Anthropic —que ayuda a potenciar Maven— después de que la empresa se negara a permitir el uso de su IA en armas y vigilancia autónomas. Palantir dice que alternativas pueden reemplazarlo.
Desde que comenzó la guerra con Irán en febrero, Estados Unidos, según se informa, ha usado Maven para planificar ataques en todo el país.
Video de demostración del Sistema inteligente Maven de Palantir
Impulsado por la BBC sobre el riesgo de que Maven sugiera objetivos incorrectos —que podrían incluir civiles—, Mosley insistió en que la plataforma solo está destinada a servir como guía para acelerar el proceso de toma de decisiones del personal militar y que no debe verse como un sistema automatizado de apuntado.
“Podrías pensar en ello como una herramienta de apoyo”, dijo Mosley. “Les permite sintetizar cantidades enormes de información que antes tendrían que haber hecho manualmente, una por una”.
Sin embargo, Mosley se remitió a los militares individuales cuando la BBC le planteó el riesgo de que comandantes con poco tiempo ordenaran a sus oficiales que aceptaran la salida de Maven como si estuviera aprobada de antemano.
“Ese es realmente un asunto para nuestros clientes militares. Ellos son quienes deciden el marco de políticas que determina quién puede tomar qué decisión”, dijo. “Esa no es nuestra función”.
Desde el 28 de febrero, Estados Unidos ha lanzado más de 11.000 ataques contra Irán, muchos de ellos, según se informa, identificados por Maven.
El almirante Brad Cooper, jefe de las fuerzas militares estadounidenses en Oriente Medio, ha elogiado los sistemas de IA por ayudar a los oficiales a “filtrar enormes cantidades de datos en segundos, para que nuestros líderes puedan abrirse paso a través del ruido y tomar decisiones más inteligentes más rápido que el enemigo, que no puede reaccionar”.
La empresa de IA Anthropic busca un experto en armas para detener a los usuarios de “uso indebido”
OpenAI cambia el acuerdo con el ejército de EE. UU. tras la reacción
Trump ordena al gobierno que deje de usar Anthropic en la batalla por el uso de IA
Pero algunos temen que la participación de la IA en la planificación de misiones genere riesgos significativos.
“Esta priorización de la velocidad y la escala y el uso de la fuerza, entonces, deja muy poco tiempo para una verificación significativa de los objetivos y asegurarse de que no incluyan objetivos civiles accidentalmente”, dijo la profesora Elke Schwarz, de la Queen Mary University of London.
“Si hay un riesgo de matar y le cedes mucho de tu pensamiento crítico a un software que se encargará de estas cosas por ti, entonces simplemente te vuelves dependiente del software”, añadió. “Es una carrera hacia abajo”.
En las últimas semanas, funcionarios del Pentágono se han enfrentado a preguntas sobre si herramientas de IA como Maven se usaron para identificar objetivos en el letal ataque contra una escuela en el pueblo iraní de Minab. Funcionarios iraníes dijeron que el ataque mató a 168 personas, incluyendo alrededor de 110 niños, en el primer día de la guerra.
En el Congreso, varios demócratas de alto nivel han pedido un mayor escrutinio de plataformas de IA como Maven. La representante Sara Jacobs —miembro del Comité de Servicios Armados de la Cámara— pidió reglas y regulaciones claramente exigibles sobre cómo y cuándo se usan los sistemas de IA.
“Las herramientas de IA no son 100% confiables: pueden fallar de maneras sutiles y, aun así, los operadores continúan confiando demasiado en ellas”, dijo a NBC News el mes pasado.
“Tenemos la responsabilidad de imponer salvaguardas estrictas sobre el uso de IA por parte del ejército y garantizar que haya un humano en el circuito en cada decisión de usar fuerza letal, porque el costo de equivocarse podría ser devastador para los civiles y para los integrantes del servicio que llevan a cabo estas misiones”.
Pero Mosley rechazó las sugerencias de que la velocidad de la plataforma de su empresa está acelerando la toma de decisiones en el Pentágono y potencialmente creando situaciones peligrosas. En su lugar, argumentó que la velocidad con la que ahora actúan los comandantes es una “consecuencia del aumento de la eficiencia” que Maven ha habilitado.
Citando la “seguridad operativa”, el Pentágono se negó a comentar cuando la BBC preguntó sobre cómo se utilizarán en el futuro sistemas de IA como Maven o quién sería responsable si algo saliera mal.
Pero en Estados Unidos parece que los funcionarios están avanzando con planes para integrar aún más Maven en sus sistemas.
La semana pasada, la agencia de noticias Reuters informó que el Pentágono designó a Maven como “un programa oficial de referencia” —estableciéndolo como una tecnología que se integrará a largo plazo en todo el ejército estadounidense.
En una carta obtenida por Reuters, el subsecretario de Defensa Steve Feinberg dijo que la plataforma brindaría a los comandantes “las herramientas más recientes necesarias para detectar, disuadir y dominar a nuestros adversarios en todos los ámbitos”.
Información adicional de Jemimah Herd
Inteligencia artificial
Guerra de Irán