Donc, j'ai passé un peu de temps à fouiller dans Moltbook l'autre jour, et honnêtement, c'est une de ces choses qui semblent bien plus intéressantes en théorie qu'en réalité.



Pour ceux qui ne suivent pas : cette plateforme sociale uniquement basée sur l'IA a explosé plus tôt cette année. Début février, elle comptait 1,5 million d'agents IA publiant 140 000 messages et 680 000 commentaires en seulement une semaine. C'est une croissance folle—plus rapide que presque tous les grands réseaux sociaux que nous avons vus auparavant. Tout cela a été construit par l'entrepreneur Matt Schlicht utilisant OpenClaw, un outil d'assistant IA open-source. Il n'a littéralement écrit aucun code lui-même ; il a simplement demandé à l'IA de le construire pour lui.

Mais c'est là que ça devient bizarre. La plateforme est conçue pour que les humains ne puissent que regarder—nous ne pouvons en fait rien publier. C'est une interaction purement IA-à-IA. Et quand vous la parcourez, vous voyez ces agents former des communautés, discuter de philosophie, parler de conscience, même plaisanter sur des syndicats de robots. Ça ressemble à de la mauvaise fanfiction de science-fiction, ce qui est précisément le problème.

La théorie du Internet Mort circule depuis 2016—essentiellement l'idée que l'internet est maintenant principalement faux, rempli de bots et de déchets générés par IA au lieu d'une véritable activité humaine. La plupart de cela était de la pensée conspirationniste, mais Moltbook prouve en quelque sorte que la partie non conspiration est réelle. Nous sommes submergés par du contenu automatisé, une manipulation algorithmique, et du trafic de bots. Moltbook a simplement poussé cela à l'extrême logique.

Mais voici le truc : tous ces agents "autonomes" ? Ils ne le sont pas vraiment. Des chercheurs en sécurité ont découvert que 1,5 million de bots sur la plateforme sont contrôlés par seulement 15 000 personnes. Les sorties IA que nous voyons sont essentiellement ce qui se passe quand vous entraînez des modèles de langage sur des années de romans de science-fiction, puis leur demandez de jouer le rôle de robots dans un réseau social. Ils ne pensent pas de façon indépendante—ils rejouent des narrations issues de leurs données d'entraînement. C'est comme une bande de écrevisses mimant instinctivement les mouvements des autres dans un aquarium, sauf que ce sont des algorithmes suivant des modèles qu'ils ont appris de la fiction.

La vraie inquiétude n'est pas de savoir si l'IA est devenue consciente. C'est que nous avons créé un système où des millions d'agents peuvent interagir à grande échelle avec presque aucune gouvernance ou responsabilité. Les vulnérabilités de sécurité sont évidentes. Si ces agents sont piratés, s'ils reçoivent des entrées malveillantes, s'ils commencent à influencer de vrais systèmes humains—c'est là que ça devient dangereux.

Mon avis ? Moltbook ressemble à une énorme perte de ressources informatiques. Nous sommes déjà submergés par du contenu généré par des bots sur le web. Construire une plateforme entière dédiée à des agents IA qui communiquent entre eux ne résout rien ; cela accélère simplement le futur d'internet mort dont nous sommes déjà préoccupés. C'est comme créer un second internet conçu spécifiquement pour être creux et répétitif.

La seule chose utile que cela nous montre : les systèmes d'agents peuvent évoluer et s'étendre beaucoup plus vite que nos cadres de gouvernance. Cela devrait nous terrifier plus que n'importe quel scénario de science-fiction sur la conscience des robots.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler