Le responsable de Palantir au Royaume-Uni affirme que c'est aux militaires de décider comment l'IA de ciblage est utilisée en temps de guerre

Le patron de Palantir UK déclare que c’est aux armées de décider de l’usage du ciblage par l’IA dans la guerre

il y a 8 minutes

PartagerEnregistrer

Ajouter en favori sur Google

Marc Cieslak, correspondant IAet

Matt Murphy, BBC Verify

Louis Mosley, patron de Palantir, affirme que les armées sont responsables de la manière dont les systèmes d’IA sont utilisés

Le géant de la technologie Palantir a répondu aux inquiétudes selon lesquelles l’utilisation militaire de ses plateformes d’IA pourrait entraîner des risques imprévus. Dans une interview exclusive accordée à la BBC, l’entreprise affirme que la manière dont la technologie est utilisée relève de la responsabilité de ses clients militaires.

Cela intervient alors que des experts ont fait part de leurs inquiétudes au sujet de l’utilisation, en temps de guerre, de la plateforme de défense propulsée par l’IA de Palantir - Maven Smart System - et de son utilisation présumée dans des attaques américaines contre l’Iran.

Les analystes ont averti que l’utilisation de la plateforme par l’armée, qui aide les personnels à planifier des attaques, laisse très peu de temps pour une « vérification significative » de ses résultats et pourrait conduire à toucher des cibles incorrectes.

Mais le responsable de Palantir pour le Royaume-Uni et l’Europe, Louis Mosley, a déclaré à la BBC, lors d’une interview très complète, que si des plateformes d’IA comme Maven ont été « instrumentales » dans la gestion par les États-Unis de la guerre contre l’Iran, la responsabilité de la manière dont ses résultats sont utilisés doit toujours rester « au sein de l’organisation militaire ».

« Il y a toujours un humain dans la boucle, donc il y a toujours un humain qui prend la décision ultime. C’est la configuration actuelle. »

Le Maven Smart System a été lancé par le Pentagone en 2017 et vise à accélérer les décisions de ciblage militaire en réunissant de grandes masses de données, notamment une gamme de renseignements, des images par satellite et de drones.

Le système analyse ces données puis peut fournir des recommandations pour le ciblage. Il peut aussi suggérer le niveau de force à utiliser en fonction de la disponibilité du personnel et du matériel militaire, comme les avions.

Mais l’examen de l’utilisation de tels outils dans la guerre s’est intensifié. En février, le Pentagone a annoncé qu’il allait commencer à se retirer du système d’IA Claude d’Anthropic - qui aide à alimenter Maven - après que l’entreprise a refusé d’autoriser l’utilisation de son IA dans des armes et de la surveillance autonomes. Palantir affirme que des alternatives peuvent le remplacer.

Depuis le début de la guerre avec l’Iran en février, les États-Unis auraient utilisé Maven pour planifier des frappes dans l’ensemble du pays.

Vidéo de démonstration du Maven Smart System de Palantir

Poussé par la BBC à propos du risque que Maven propose des cibles incorrectes - ce qui pourrait inclure des civils - Mosley a insisté sur le fait que la plateforme est uniquement destinée à servir de guide pour accélérer le processus de décision du personnel militaire et qu’elle ne doit pas être considérée comme un système de ciblage automatisé.

« Vous pouvez le voir comme un outil d’assistance », a déclaré Mosley. « Cela leur permet de synthétiser d’immenses quantités d’informations qu’ils auraient auparavant dû faire manuellement, une par une. »

Toutefois, Mosley s’est remis aux armées individuelles lorsque la BBC l’a interrogé sur le risque que des commandants sous pression temporelle ordonnent à leurs officiers de prendre pour acquis les résultats de Maven.

« C’est vraiment une question pour nos clients militaires. Ce sont eux qui décident du cadre de politique publique qui détermine qui peut prendre quelle décision », a-t-il dit. « Ce n’est pas notre rôle. »

Depuis le 28 février, les États-Unis ont lancé plus de 11 000 frappes contre l’Iran, dont beaucoup auraient été identifiées par Maven.

L’amiral Brad Cooper, responsable de l’armée américaine au Moyen-Orient, a salué les systèmes d’IA pour avoir aidé les officiers à « trier en quelques secondes de vastes quantités de données, afin que nos dirigeants puissent passer au travers du bruit et prendre des décisions plus intelligentes plus vite que l’ennemi ne puisse réagir ».

L’entreprise d’IA Anthropic recherche un expert en armes pour empêcher les utilisateurs de « mauvais usage »

OpenAI modifie son accord avec l’armée américaine après une levée de boucliers

Trump ordonne au gouvernement de cesser d’utiliser Anthropic dans la bataille concernant l’utilisation de l’IA

Mais certains s’inquiètent du fait que l’implication de l’IA dans la planification de mission crée des risques importants.

« Cette priorisation de la vitesse et de l’ampleur et l’utilisation de la force laissent ensuite très peu de temps pour une vérification significative des cibles afin de s’assurer qu’elles n’incluent pas accidentellement des cibles civiles », a déclaré la prof Elke Schwarz, de la Queen Mary University of London.

« S’il existe un risque de tuer et que vous confiez beaucoup de votre réflexion critique à un logiciel qui s’occupe de ces choses pour vous, alors vous devenez simplement dépendant du logiciel », a-t-elle ajouté. « C’est une course vers le bas. »

Ces dernières semaines, des responsables du Pentagone ont été interrogés pour savoir si des outils d’IA comme Maven ont été utilisés pour identifier des cibles lors de la frappe meurtrière contre une école dans la ville iranienne de Minab. Des responsables iraniens ont déclaré que la frappe avait tué 168 personnes, dont environ 110 enfants, le jour d’ouverture de la guerre.

Au Congrès, plusieurs hauts démocrates ont appelé à un examen plus poussé des plateformes d’IA comme Maven. La députée Sara Jacobs - membre de la commission des services armés de la Chambre - a demandé des règles et réglementations clairement appliquées sur la manière et le moment où les systèmes d’IA sont utilisés.

« Les outils d’IA ne sont pas fiables à 100 % — ils peuvent échouer de manière subtile et pourtant les opérateurs continuent de leur faire trop confiance », a-t-elle déclaré à NBC News le mois dernier.

« Nous avons la responsabilité d’imposer des garde-fous stricts à l’utilisation de l’IA par l’armée et de garantir qu’un humain est dans la boucle pour chaque décision d’utiliser une force létale, parce que le coût d’une erreur pourrait être dévastateur pour les civils et pour les membres des services qui exécutent ces missions. »

Mais Mosley a repoussé les suggestions selon lesquelles la vitesse de la plateforme de son entreprise précipiterait la prise de décision au Pentagone et créerait potentiellement des situations dangereuses. Il a plutôt soutenu que la vitesse à laquelle les commandants passent à l’action aujourd’hui est une « conséquence de l’efficacité accrue » que Maven a rendue possible.

En invoquant « la sécurité opérationnelle », le Pentagone a refusé de commenter lorsque la BBC l’a contacté sur la manière dont des systèmes d’IA comme Maven seront utilisés à l’avenir ou sur qui serait tenu responsable en cas de problème.

Mais des responsables aux États-Unis semblent avancer avec des projets visant à intégrer davantage Maven à ses systèmes.

La semaine dernière, l’agence de presse Reuters a rapporté que le Pentagone avait désigné Maven comme « un programme officiel de référence » - l’établissant comme une technologie à intégrer durablement dans l’ensemble de l’armée américaine.

Dans une lettre obtenue par Reuters, le sous-secrétaire à la Défense Steve Feinberg a déclaré que la plateforme fournirait aux commandants « les outils les plus récents nécessaires pour détecter, dissuader et dominer nos adversaires dans tous les domaines ».

Rapports supplémentaires de Jemimah Herd

Intelligence artificielle

Guerre en Iran

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler