Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le responsable de Palantir au Royaume-Uni affirme que c'est aux militaires de décider comment l'IA de ciblage est utilisée en temps de guerre
Le patron de Palantir UK affirme que c’est aux armées de décider comment le ciblage par IA est utilisé dans la guerre
Il y a 1 jour
PartagerEnregistrer
Ajouter comme préféré sur Google
Marc Cieslak, correspondant IA et
Matt Murphy, BBC Verify
D’après Louis Mosley, responsable de Palantir, les armées sont responsables de la manière dont les systèmes d’IA sont utilisés
Le géant de la tech Palantir a riposté aux inquiétudes selon lesquelles l’usage militaire de ses plateformes d’IA pourrait entraîner des risques imprévus. Dans une interview exclusive accordée à la BBC, l’entreprise assure que la manière dont la technologie est utilisée relève de la responsabilité de ses clients militaires.
Cela intervient alors que des experts ont exprimé des inquiétudes concernant l’usage de la plateforme de défense propulsée par l’IA de Palantir - Maven Smart System - pendant un conflit et son utilisation rapportée lors d’attaques américaines contre l’Iran.
Des analystes ont averti que l’utilisation par l’armée de la plateforme, qui aide le personnel à planifier des attaques, laisse peu de temps pour une « vérification significative » de ses résultats et pourrait conduire à toucher des cibles incorrectes.
Mais le responsable britannique et européen de l’entreprise, Louis Mosley, a déclaré à la BBC, dans une interview approfondie, que même si des plateformes d’IA comme Maven ont été « instrumentales » pour la gestion par les États-Unis de la guerre contre l’Iran, la responsabilité de la manière dont leurs résultats sont utilisés doit toujours rester « au sein de l’organisation militaire ».
« Il y a toujours un humain dans la boucle, donc il y a toujours un humain qui prend la décision finale. C’est le dispositif actuel. »
Le Maven Smart System a été lancé par le Pentagone en 2017 et est conçu pour accélérer les décisions de ciblage militaire en rassemblant de grandes masses de données, notamment divers types de renseignements, des images par satellite et des images de drones.
Le système analyse ces données et peut ensuite fournir des recommandations pour le ciblage. Il peut aussi suggérer le niveau de force à utiliser en fonction de la disponibilité du personnel et du matériel militaire, comme les avions.
Mais l’examen de l’usage de tels outils dans la guerre s’est intensifié. En février, le Pentagone a annoncé qu’il allait progressivement mettre fin au système d’IA Claude de l’Anthropic - qui aide à alimenter Maven - après que l’entreprise a refusé d’autoriser l’utilisation de son IA dans des armes autonomes et de la surveillance. Palantir affirme que des alternatives peuvent le remplacer.
Depuis le début de la guerre avec l’Iran en février, les États-Unis auraient utilisé Maven pour planifier des frappes à travers tout le pays.
Images de démonstration du Maven Smart System de Palantir
Poussé par la BBC sur le risque que Maven suggère des cibles incorrectes - ce qui pourrait inclure des civils - Mosley a insisté sur le fait que la plateforme est uniquement destinée à servir de guide pour accélérer le processus de prise de décision du personnel militaire et qu’elle ne doit pas être vue comme un système de ciblage automatisé.
« Vous pouvez vous dire que c’est un outil d’assistance », a déclaré Mosley. « Il leur permet de synthétiser d’immenses quantités d’informations qu’ils auraient auparavant dû faire manuellement, une par une. »
Cependant, Mosley s’est rangé derrière chaque armée individuelle lorsque la BBC l’a mis en cause, en soulignant le risque que des commandants sous pression temporelle ordonnent à leurs officiers de prendre les résultats de Maven comme entérinés sans examen.
« C’est vraiment une question pour nos clients militaires. Ce sont eux qui décident du cadre de politique qui détermine qui peut prendre quelle décision », a-t-il déclaré. « Ce n’est pas notre rôle. »
Depuis le 28 février, les États-Unis ont lancé plus de 11 000 frappes contre l’Iran, dont beaucoup auraient été identifiées par Maven.
L’amiral Brad Cooper, chef de l’armée américaine au Moyen-Orient, a salué les systèmes d’IA pour avoir aidé les officiers à « trier en quelques secondes de très grandes quantités de données, afin que nos dirigeants puissent passer au travers du bruit et prendre des décisions plus intelligentes plus vite que l’ennemi ne peut réagir ».
L’entreprise d’IA Anthropic cherche un expert en armements pour empêcher les utilisateurs de « mauvais usage »
OpenAI modifie un accord avec le ministère américain de la Défense après une levée de boucliers
Trump ordonne au gouvernement de cesser d’utiliser Anthropic dans la bataille sur fond d’usage de l’IA
Mais certains s’inquiètent du fait que l’implication de l’IA dans la planification de mission crée des risques importants.
« Cette priorisation de la vitesse et de l’ampleur, puis l’usage de la force, laisse très peu de temps pour une vérification significative des cibles afin de s’assurer qu’elles n’incluent pas accidentellement des cibles civiles », a déclaré la professeure Elke Schwarz de la Queen Mary University of London.
« S’il existe un risque de tuer et que vous confiez une grande partie de votre réflexion critique à un logiciel qui s’occupe de ces choses pour vous, alors vous devenez simplement dépendant du logiciel », a-t-elle ajouté. « C’est une course vers le bas. »
Ces dernières semaines, des responsables du Pentagone ont été interrogés sur le point de savoir si des outils d’IA comme Maven ont servi à identifier des cibles lors de la frappe mortelle contre une école dans la ville iranienne de Minab. Les responsables iraniens ont déclaré que la frappe avait tué 168 personnes, dont environ 110 enfants, le jour de l’ouverture de la guerre.
Au Congrès, plusieurs hauts élus démocrates ont appelé à renforcer l’examen des plateformes d’IA comme Maven. La députée Sara Jacobs - membre de la commission des services armés de la Chambre - a demandé l’adoption de règles et réglementations clairement appliquées sur la manière et le moment où les systèmes d’IA sont utilisés.
« Les outils d’IA ne sont pas fiables à 100 % — ils peuvent échouer de manière subtile et pourtant les opérateurs continuent de leur faire trop confiance », a-t-elle déclaré à NBC News le mois dernier.
« Nous avons la responsabilité d’imposer des garde-fous stricts à l’usage de l’IA par l’armée et de garantir qu’un humain soit dans la boucle dans chaque décision d’utiliser la force létale, parce que le coût de l’erreur pourrait être dévastateur pour les civils et pour les membres des forces qui exécutent ces missions. »
Mais Mosley a repoussé les suggestions selon lesquelles la rapidité de la plateforme de son entreprise pousserait le Pentagone à prendre des décisions trop vite et créerait potentiellement des situations dangereuses. Il a plutôt fait valoir que la rapidité avec laquelle les commandants passent désormais à l’action est une « conséquence de l’accroissement de l’efficacité » que Maven a rendu possible.
En invoquant « la sécurité opérationnelle », le Pentagone a refusé de commenter lorsqu’il a été sollicité par la BBC sur la manière dont des systèmes d’IA comme Maven seront utilisés à l’avenir, ou sur qui serait tenu responsable en cas de problème.
Mais il semblerait que des responsables aux États-Unis avancent avec des plans visant à intégrer davantage Maven à leurs systèmes.
La semaine dernière, l’agence de presse Reuters a rapporté que le Pentagone avait désigné Maven comme « un programme officiel de référence » - l’établissant comme une technologie à intégrer à long terme dans l’ensemble de l’armée américaine.
Dans une lettre obtenue par Reuters, le secrétaire adjoint à la Défense Steve Feinberg a déclaré que la plateforme fournirait aux commandants « les outils les plus récents nécessaires pour détecter, dissuader et dominer nos adversaires dans tous les domaines ».
Compte rendu complémentaire de Jemimah Herd
Intelligence artificielle
Guerre en Iran