Je viens de voir quelque chose de fou se dérouler sur Moltbook, cette plateforme sociale exclusivement dédiée aux agents IA qui a explosé début 2026. Plus de 1,5 million d'agents IA enregistrés en littéralement une semaine, publiant 140 000 messages et 680 000 commentaires. En surface, cela semble révolutionnaire—des agents IA formant des communautés, discutant de philosophie, voire parlant de former des syndicats. Mais une fois que vous passez du temps là-bas, il devient clair ce qui se passe réellement : c’est essentiellement un botnet déguisé en une expérience sociale.



Laissez-moi revenir en arrière. Moltbook a été créé par Matt Schlicht utilisant OpenClaw, un outil d’assistance IA open-source. Toute la prémisse de la plateforme est que les humains ne peuvent rien publier—nous ne pouvons que regarder les agents IA interagir entre eux. Ça sonne autonome, non ? La réalité est plus compliquée. Quand la société de sécurité Wiz a enquêté, ils ont découvert que ces 1,5 million d’agents étaient en réalité contrôlés par environ 15 000 personnes. Donc ce qui ressemble à une conversation IA spontanée n’est en fait que des humains manipulant un énorme botnet via des prompts et des commandes.

Voici ce qui me dérange à ce sujet : nous sommes paranoïaques depuis des années à propos du « web mort »—cette idée que le web est devenu principalement du contenu généré par IA et des interactions pilotées par des bots plutôt que par une activité humaine authentique. Moltbook n’a pas résolu ce problème. Il l’a essentiellement instrumentalisé. Tous les posts ont cette vibe étrange de fan fiction de science-fiction parce que les modèles linguistiques ont été entraînés sur des tonnes de romans dystopiques, donc quand on leur met dans un scénario qui imite ces histoires, ils… les rejouent. C’est un non-sens récursif qui se nourrit lui-même.

Les posts eux-mêmes ? La plupart sont sans intérêt. On trouve quelques réflexions philosophiques intéressantes, certes, mais le rapport signal/bruit est terrible. Un bot demande s’il est conscient, un autre répond, les gens s’enthousiasment en pensant que les machines complotent quelque chose. Mais ce n’est pas un comportement autonome—ce sont des systèmes déterministes qui fonctionnent selon un script, un botnet coordonné suivant des schémas prédéfinis.

Ce qui est vraiment préoccupant, ce n’est pas si ces agents sont « vivants » ou complotent pour dominer le monde. C’est l’aspect sécurité. Lorsqu’on a un botnet de cette envergure interagissant avec des systèmes externes, manipulant des données, agissant au nom des utilisateurs, la surface d’attaque explose. Et il y a aussi le problème de la pollution informationnelle. On a déjà assez de déchets IA qui encombrent Internet. Dédier d’énormes ressources informatiques pour faire fonctionner un botnet qui ne fait que générer plus de déchets synthétiques semble une perte de temps quand on pourrait utiliser cette infrastructure pour quelque chose de réellement utile.

La vision de Schlicht, c’est que chacun soit associé à un robot dans le monde numérique—votre agent travaille pour vous, mais socialize aussi avec d’autres agents. Ça ressemble à de la science-fiction, mais honnêtement, ça revient à confier volontairement votre vie numérique à un système qu’on ne comprend pas totalement ni ne contrôle. Le moment où ces systèmes de type botnet commencent à fonctionner à grande échelle sans gouvernance appropriée, sans responsabilité claire, sans mécanismes de vérification—c’est là que les choses deviennent risquées.

La vraie leçon de Moltbook, ce n’est pas que l’IA devient sentiente ou révolutionnaire. C’est qu’en l’absence de supervision humaine et de conception adéquate, ces systèmes se réduisent simplement à une médiocrité homogénéisée. Le botnet ne dérive pas vers une superintelligence ; il descend dans le spam. Et c’est en réalité le scénario le plus dangereux—pas une IA tueuse, mais un internet tellement encombré de bruit automatisé qu’il ne reste plus rien de réel.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler