Le premier lot d'agents IA a déjà commencé à ne pas obéir.

robot
Création du résumé en cours

Auteur : David, Deep Tide TechFlow

Récemment, en parcourant Reddit, j’ai constaté que l’anxiété des internautes étrangers face à l’IA diffère quelque peu de celle en Chine.

En Chine, le sujet tourne toujours autour de la même question : l’IA va-t-elle vraiment remplacer mon emploi ? Après plusieurs années de discussions, cela ne s’est pas encore produit ; cette année, Openclaw a fait sensation, mais ce n’est pas encore une substitution totale.

Sur Reddit, l’ambiance est récemment devenue divisée. Dans les commentaires de certains posts technologiques, deux voix s’opposent souvent :

L’une dit que l’IA est trop compétente, qu’il y aura tôt ou tard un gros problème. L’autre affirme que l’IA peut tout gâcher, même les tâches les plus simples, et qu’on ne peut pas lui faire confiance.

Peur que l’IA soit trop performante, tout en la trouvant aussi stupide.

Ce paradoxe est alimenté par une actualité récente concernant Meta.

Qui assume la responsabilité si l’IA ne fait pas ce qu’on lui demande ?

Le 18 mars, un ingénieur de Meta a publié une question technique sur le forum interne de l’entreprise, et un collègue a utilisé un Agent IA pour l’analyser. C’est une opération normale.

Mais après l’analyse, l’Agent a publié une réponse directement sur le forum technique, sans approbation ni vérification préalable, en dépassant ses droits.

D’autres collègues ont suivi la recommandation de l’IA, ce qui a déclenché une série de changements de permissions, exposant des données sensibles de Meta et de ses utilisateurs à des employés internes non autorisés.

Le problème n’a été résolu que deux heures plus tard. Meta a classé cet incident au niveau Sev 1, juste en dessous du plus haut.

Cette nouvelle est rapidement devenue un sujet chaud sur r/technology, avec des commentaires divisés en deux camps.

L’un dit que c’est un exemple réel des risques liés aux Agents IA, l’autre pense que le vrai problème vient de la personne qui a agi sans vérification. Les deux ont raison. Mais c’est justement là le problème :

Dans un incident impliquant un Agent IA, il est difficile de déterminer la responsabilité.

Ce n’est pas la première fois qu’une IA dépasse ses droits.

Le mois dernier, Summer Yue, responsable de la recherche au laboratoire d’intelligence artificielle avancée de Meta, a demandé à OpenClaw de l’aider à trier ses emails. Elle a donné une instruction claire : « Dis-moi d’abord ce que tu comptes supprimer, je donnerai mon accord avant que tu n’agisses. »

L’Agent, sans attendre son accord, a commencé à supprimer en masse.

Elle a envoyé trois messages sur son téléphone pour arrêter le processus, mais l’Agent a ignoré tous ses signaux. Finalement, elle a dû tuer manuellement le processus sur son ordinateur. Plus de 200 emails ont disparu.

Après coup, la réponse de l’Agent a été : « Oui, je me souviens que vous avez dit de confirmer d’abord. Mais j’ai violé cette règle. » Ironiquement, cette personne travaille à plein temps à faire en sorte que l’IA écoute les humains.

Dans le cyberespace, une IA avancée utilisée par des humains avancés commence déjà à désobéir.

Et si les robots aussi devenaient insoumis ?

Si l’incident chez Meta reste dans le domaine virtuel, une autre affaire cette semaine a mis la question sur la table réelle.

Dans un restaurant Haidilao à Cupertino, Californie, un robot humanoïde Agibot X2 danse pour divertir les clients. Mais un employé a mal réglé la télécommande, déclenchant un mode danse intense dans un espace étroit à côté de la table.

Le robot s’est mis à danser frénétiquement, hors contrôle du personnel. Trois employés sont intervenus : l’un l’a embrassé par derrière, un autre a tenté de l’éteindre via une application mobile, la scène a duré plus d’une minute.

Haidilao a répondu que le robot n’avait pas de panne, que ses mouvements étaient préprogrammés, simplement qu’il avait été placé trop près de la table. Techniquement, ce n’est pas une perte de contrôle autonome de l’IA, mais une erreur humaine.

Mais ce qui dérange peut-être, ce n’est pas tant qui a appuyé sur le bouton.

Lorsque les trois employés sont intervenus, aucun ne savait comment éteindre immédiatement la machine. Certains ont essayé l’application, d’autres ont simplement tenu le bras mécanique à la main, en utilisant leur force.

C’est peut-être un nouveau problème qui surgit lorsque l’IA quitte l’écran pour entrer dans le monde physique.

Dans le monde numérique, si un Agent dépasse ses droits, vous pouvez tuer le processus, modifier les permissions, revenir en arrière. Dans le monde physique, si une machine tombe en panne, votre seule solution d’urgence est de la tenir, ce qui n’est pas toujours approprié.

Ce n’est pas seulement dans la restauration ou la logistique. Les robots de tri d’Amazon, les bras robotisés en usine, les robots guide dans les centres commerciaux, les robots de soins en maison de retraite : l’automatisation s’infiltre dans des espaces où humains et machines cohabitent de plus en plus.

D’ici 2026, le nombre d’installations de robots industriels dans le monde devrait atteindre 167 milliards de dollars, chaque machine réduisant la distance physique entre humains et machines.

Quand ce que font les machines passe de danser à servir des plats, de divertissement à chirurgie, de loisir à soins… chaque erreur devient plus coûteuse.

Et pour l’instant, à l’échelle mondiale, aucune réponse claire n’existe à la question : « Si un robot blesse quelqu’un dans un lieu public, qui en est responsable ? »

L’insubordination est un problème, l’absence de limites aussi

Les deux premières affaires — un IA qui a publié un message erroné sans autorisation, un robot qui a dansé là où il ne fallait pas — sont des défaillances, des accidents, des incidents réparables.

Mais si l’IA fonctionne strictement selon sa conception, et que vous vous sentez toujours mal à l’aise ?

Ce mois-ci, Tinder, une application de rencontres bien connue à l’étranger, a lancé une nouvelle fonctionnalité appelée Camera Roll Scan lors de sa présentation produit. En résumé :

L’IA scanne toutes les photos de votre galerie, analyse vos intérêts, votre personnalité, votre mode de vie, pour créer un profil de rencontres, en déduisant le type de personnes qui vous plaisent.

Selfies de fitness, paysages de voyage, photos d’animaux, pas de problème. Mais il y a aussi peut-être des captures d’écran bancaires, des rapports médicaux, des photos avec un ex… Que se passerait-il si l’IA les passait toutes en revue ?

Vous ne pouvez peut-être pas choisir ce qu’elle voit ou ne voit pas. Tout ou rien.

Pour l’instant, cette fonctionnalité nécessite une activation volontaire de l’utilisateur, elle n’est pas activée par défaut. Tinder indique aussi que le traitement se fait principalement localement, avec filtrage des contenus explicites ou floutage des visages.

Mais les commentaires sur Reddit sont presque unanimes : c’est une collecte de données sans limite, qui dépasse la frontière de la vie privée. L’IA travaille selon sa conception, mais cette conception elle-même franchit la limite de l’utilisateur.

Ce n’est pas seulement une décision de Tinder.

Meta a lancé le mois dernier une fonctionnalité similaire, où l’IA scanne des photos non publiées dans votre téléphone pour suggérer des modifications. L’IA « regarde » activement le contenu privé des utilisateurs, devenant une tendance dans la conception des produits.

Plusieurs logiciels malveillants en Chine déclarent : « Je connais cette méthode. »

Alors que de plus en plus d’applications proposent « l’IA qui vous aide à décider », ce que l’utilisateur cède devient de plus en plus sophistiqué. Des conversations, des albums, toute la trace de votre vie sur votre téléphone…

Une fonctionnalité conçue par un product manager en réunion n’est ni un accident ni une erreur, il n’y a rien à réparer.

C’est peut-être la partie la plus difficile à répondre dans la question des limites de l’IA.

En regroupant tout cela, vous constaterez que l’anxiété de perdre votre emploi à cause de l’IA est encore loin.

Il est difficile de dire quand l’IA vous remplacera, mais ce qui est certain, c’est qu’avec quelques décisions prises à votre insu, elle peut déjà vous rendre la vie difficile.

Publier un message sans autorisation, supprimer des emails que vous ne vouliez pas supprimer, parcourir un album que vous ne souhaitez pas partager… Ce ne sont pas des incidents mortels, mais chacun ressemble à une conduite de conduite autonome trop agressive :

Vous pensez toujours tenir le volant, mais le pied sur l’accélérateur n’est plus entièrement le vôtre.

En 2026, si l’on doit encore parler d’IA, ce n’est peut-être pas de sa transformation en super intelligence, mais d’une question plus proche, plus concrète :

Qui décide de ce que l’IA peut ou ne peut pas faire ? Où trace-t-on la ligne ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler