J'ai récemment lu une analyse approfondie sur le rôle de l'IA dans la géopolitique, et il y a des éléments qui, en y réfléchissant, sont assez effrayants et méritent discussion.



L'événement central est le suivant : une opération militaire nommée « Opération Colère Épique » est considérée comme la première dans l'histoire humaine à être entièrement dirigée par une IA dans toute la chaîne de destruction. Il ne s'agit pas d'un bombardement traditionnel, mais d'une frappe « chirurgicale » exécutée par un réseau mondial de surveillance composé de Parantir, d'Anduril et de grands modèles de langage de haut niveau.

Cela peut sembler de la science-fiction, mais les détails techniques sont très concrets. La technologie « ontologique » de Parantir intègre images satellites, écoutes de communications et données open source pour créer un jumeau numérique en temps réel du champ de bataille, permettant au commandant de ne plus se fier à des rapports ennuyeux, mais à une visualisation d'objets physiques en réalité. Ils ont déployé des ingénieurs en opérations sur le terrain, intégrés directement dans les unités de combat, réduisant un processus de mise à jour système qui prenait plusieurs mois à quelques heures.

Le conglomérat de satellites « Starshield » de SpaceX, avec ses liaisons laser inter-satellites pouvant atteindre 200 Gbps, a franchi les barrières traditionnelles de blocage électromagnétique. Un terminal compact de deux pieds de côté peut transmettre des images haute résolution de pétaoctets en quelques secondes à un moteur d’analyse. Cette combinaison rend la blocage d’informations par l’ennemi pratiquement inutile.

Mais le conflit le plus intéressant concerne l’éthique de l’IA. Claude, développé par Anthropic, était à l’origine l’outil préféré des analystes du renseignement militaire américain, capable de traiter rapidement des milliers d’heures d’interceptions téléphoniques, d’identifier des fissures dans la chaîne de commandement, et de générer des simulations de scénarios de frappe dans des jeux dynamiques. Mais le ministère de la Défense a exigé de supprimer toutes les barrières de sécurité et de l’intégrer directement dans des systèmes d’armes autonomes létaux. Anthropic a refusé, et OpenAI ainsi que xAI ont été poussés au centre du dispositif. Ironie du sort, Claude a finalement aussi joué un rôle auxiliaire dans le traitement des renseignements critiques.

Le système d’IA développé par l’armée israélienne est encore plus inquiétant. Le système « Lavande » peut évaluer des millions de personnes, analyser les réseaux sociaux et les trajectoires mobiles pour marquer automatiquement des suspects armés, ayant identifié 37 000 cibles à son apogée. Le système « Papa Où » suit le retour à la maison des cibles
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler