Je me suis plongé dans quelque chose qui remodèle silencieusement la façon dont la guerre moderne fonctionne, et honnêtement c'est assez fou quand on assemble tous les éléments.



Il y a cette opération appelée Epic Fury en février 2026—Israël et les États-Unis ont essentiellement mené ce qui équivaut à un test de résistance à l'IA dans une zone de combat réelle contre l'Iran. Mais voici ce que la plupart des gens manquent : il ne s'agissait pas seulement de puissance de feu. Il s'agissait de compresser toute la chaîne de frappe—des données des capteurs à la prise de décision, jusqu'aux frappes réelles—en quelques minutes ou même secondes. Celui qui déchiffre cette compression remporte le prochain tour de levier géopolitique.

Ce qui a attiré mon attention, c'est la façon dont les grandes entreprises technologiques ont ouvertement changé de position. OpenAI est passé de cette posture éthique sur le fait de rester à l'écart des applications militaires à l'obtention soudainement du contrat de défense probablement le plus sensible de notre époque. Ils l'ont annoncé vers fin février—déployant des modèles GPT sur des réseaux classifiés pour l'analyse du renseignement, la traduction, les simulations de combat. La société dit faire cela dans des « lignes rouges », mais soyons réalistes : ces lignes rouges sont devenues beaucoup plus flexibles quand on parle de centaines de millions de dollars en contrats de défense.

Puis il y a Anthropic, qui a pris le chemin opposé. Ils ont refusé de céder sur leurs principes, n'ont pas accepté les exigences du Pentagone concernant les armes autonomes et la surveillance de masse. Résultat ? Ils ont été étiquetés comme un « risque de chaîne d'approvisionnement »—une désignation auparavant réservée à des entreprises comme Huawei. C'est un signal glaçant pour toute l'industrie : reste fidèle à votre éthique et regardez votre accès au budget de défense disparaître du jour au lendemain.

Mais voici ce dont personne ne parle assez : le vrai pouvoir dans cette équation n'est pas détenu par les entreprises de modèles. Il est détenu par Microsoft et Google. Sans leur infrastructure cloud, tous ces modèles d'IA sophistiqués ne sont que des diapositives PowerPoint. Microsoft Azure est devenu la colonne vertébrale opérationnelle—l'armée israélienne a multiplié par environ 64 ses opérations d'apprentissage automatique en quelques mois. Le projet Nimbus de Google fournit une infrastructure cloud valant plus d’un milliard de dollars. Ces entreprises absorbent le flux de trésorerie réel pendant que les fournisseurs de modèles prennent le coup réputationnel. Intelligent, si on le voit cyniquement.

Ce qui me dérange vraiment, c'est les systèmes d'IA israéliens comme Lavender. Cette chose a analysé les comportements de pratiquement tous les hommes adultes de Gaza, leur a attribué un « score de militant suspect », et a identifié des dizaines de milliers de cibles. Ensuite Gospel a automatisé la construction des cibles, et Where's Daddy a optimisé le moment de l'attaque pour maximiser les pertes. La revue humaine ? Quelques dizaines de secondes par cible. Voilà à quoi ressemble réellement une usine de tuerie algorithmique quand on supprime la friction du processus décisionnel.

La partie effrayante, c'est la portabilité de cette logique. Les techniques qu'ils ont développées à Gaza pourraient être appliquées partout—Téhéran, Taipei, n'importe où. Il ne s'agit pas de la géographie spécifique ; c'est la pipeline de données et l'infrastructure cloud qui la traite qui comptent.

D'un point de vue marché, nous assistons à l'émergence de ce que l'on pourrait appeler un complexe IA-Cloud-Défense. Il remodèle la façon dont les investisseurs doivent penser aux actions technologiques. Il ne s'agit plus seulement d'OpenAI ou de Microsoft en tant qu'entreprises grand public. Il s'agit de qui contrôle l'infrastructure pour la prochaine génération de conflits. Les entreprises prêtes à faire des compromis sur l'éthique sont récompensées par un flux de trésorerie stable et contracyclique qui les protège des cycles économiques habituels.

La vraie question que les gens devraient se poser : avant de déléguer davantage de chaînes de frappe à une poignée de grandes entreprises de modèles et de cloud, avons-nous encore le temps de déterminer qui est réellement responsable lorsque les recommandations algorithmiques deviennent des coordonnées de bombardement ? Parce que si vous ne dites rien maintenant, vous pariez essentiellement sur le fait que cette complexité reste gérable. L'histoire suggère le contraire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler