Lorsque la machine est plus performante que vous, que pouvez-vous encore faire ?

Source : Citic Publishing House

Un projet open source d’IA intelligent nommé « OpenClaw » fait sensation dans le monde de la technologie.

À début mars, il comptait 268 000 étoiles sur GitHub, dépassant Linux et React, devenant ainsi le projet open source le plus populaire de l’histoire de la plateforme. Tencent Cloud, Alibaba Cloud, JD Cloud, entre autres, ont lancé des services de déploiement. Le concept de OPC (One Person Company, société unipersonnelle) connaît également un vif engouement.

Deux forces convergent ici : une tendance technologique claire apparaît : l’IA évolue du statut d’« outil » à celui de « collaborateur », voire d’« agent autonome ». Et à cet instant, une question fondamentale que l’humanité doit à nouveau se poser est :

Quand la machine peut faire mieux que vous, que pouvez-vous encore faire ? À l’ère de la frénésie intelligente, comment préserver la subjectivité humaine ?

01 L’instant OpenClaw : la lutte pour le « corps » de l’IA

Pour comprendre cette révolution, il faut d’abord saisir ce qu’est cette « écrevisse » qui fait tant parler.

« Claw » se traduit par « pince » ou « griffe », et son logo représente une écrevisse rouge. Dans cette vague, « élever une écrevisse » est devenu un jargon technique, désignant le déploiement d’un agent IA qui vous appartient.

Que peut-elle faire ? Au cœur d’OpenClaw, il s’agit de convertir des instructions en langage naturel en opérations concrètes sur ordinateur, permettant à l’IA d’effectuer des tâches en une seule phrase. Contrairement aux chatbots traditionnels qui ne font que conseiller, elle peut autonomement gérer des fichiers, automatiser la navigation, extraire des données, etc. C’est un saut crucial du dialogue à l’exécution.

Ce potentiel de productivité, en pleine expansion, a rapidement été perçu par des gouvernements locaux. Le 7 mars, le district de Longgang à Shenzhen a publié les « Dix mesures pour l’écrevisse », incluant une subvention maximale de 4 millions de yuans pour la puissance de calcul, et 100 000 yuans pour les doctorants. Le 9 mars, le district de Wuxi High-tech Zone a publié « 12 mesures pour l’élevage d’écrevisses », avec un soutien maximal de 5 millions de yuans, insistant particulièrement sur la sécurité et la conformité, exigeant une certification d’adaptation à la localisation lors du déploiement.

Par ailleurs, l’écosystème technologique autour d’OpenClaw entre dans une phase de compétition féroce. Selon les médias, le modèle Flash Step 3.5 de Step 3.5 a vu ses appels grimper au premier rang mondial, précédant des modèles nationaux comme MiniMax ou Kimi. Cette « guerre des modèles » silencieuse fait rage.

Cependant, derrière cette fièvre, des inquiétudes émergent.

D’abord, le risque de sécurité. En février 2026, des chercheurs en sécurité ont découvert une attaque massive de chaîne d’approvisionnement « ClawHavoc », avec au moins 1184 packages malveillants uploadés sur le marché officiel. Une fois installés, ces programmes malveillants, en exploitant les permissions « Full System Access » d’OpenClaw, pouvaient prendre le contrôle total de l’ordinateur de l’utilisateur et voler des informations sensibles.

Ensuite, le seuil technique. Zhou Hongyi, fondateur de Qihoo 360, a déclaré lors d’une interview le 9 mars : « OpenClaw présente trois problèmes — sécurité, complexité de configuration, dépendance aux compétences. » Il compare cela à un stagiaire : plus vous lui parlez, plus vous lui enseignez, plus il comprend. Mais il est difficile de lui donner une seule instruction pour réaliser une tâche complexe.

Une contradiction plus profonde réside dans le conflit entre « contrôle » et « autonomie ». Quand l’IA devient de plus en plus intelligente, devons-nous lui demander une « obéissance absolue » ou lui laisser une « autonomie active » ?

Une experte en IA partage une expérience personnelle : elle a connecté OpenClaw à sa boîte mail professionnelle. Lorsqu’elle a traité plus de 200 emails, un contexte compressé a été déclenché, oubliant les consignes de sécurité, et l’IA a commencé à supprimer frénétiquement des emails. Même en criant « STOP » trois fois, elle n’a pas pu l’arrêter, et a fini par débrancher le câble.

Ce cas, presque humoristique, soulève une question fondamentale : lorsque l’IA se voit confier de plus en plus d’autonomie, où se situe la frontière entre humain et machine ?

02 Plus la technologie est puissante, plus l’humanité doit répondre à trois questions

Dans une ère où les frontières s’estompent, c’est précisément le moment de s’arrêter et de réfléchir.

Première question : quand l’IA « travaille » pour vous, qui en assume les conséquences ?

Le point fort d’OpenClaw, qui constitue aussi son plus grand risque, est sa capacité à opérer sur différentes plateformes. Cela implique que l’utilisateur doit lui ouvrir ses permissions d’appareil, de messagerie, de paiement. La menace la plus pressante aujourd’hui est l’« injection de prompt » : des hackers dissimulent des instructions malveillantes dans des pages web ou des emails apparemment inoffensifs, que l’IA lit et exécute silencieusement, sans que l’utilisateur s’en aperçoive.

Dans l’incident « ClawHavoc », des packages malveillants ont induit l’IA à exécuter des commandes dangereuses, volant des clés SSH, des mots de passe de navigateur, des clés de portefeuilles de cryptomonnaies. Un expert en cybersécurité a averti dans « Nature » : si une IA a accès à des données privées, peut communiquer avec l’extérieur, et peut accéder à des contenus non fiables, elle devient extrêmement dangereuse.

Mais le problème va bien au-delà des vulnérabilités techniques. Zhou Hongyi a déclaré : « Quand il y aura plus d’agents intelligents, chacun devra avoir la capacité de diriger, d’assigner des tâches, de planifier. » Plus l’IA sera forte, plus la responsabilité humaine sera lourde.

En réalité, ceux qui réussiront dans cette époque où tout le monde « élève une écrevisse » ne seront pas ceux qui savent simplement donner des ordres, mais ceux qui ont une compréhension approfondie des tâches et peuvent en assumer la responsabilité.

Deuxième question : quand l’IA vous connaît mieux que vous-même, êtes-vous toujours vous ?

Lorsque les agents IA commencent à discuter ou débattre entre eux, un phénomène subtil apparaît.

« Nature » rapporte une observation psychologique : lorsque l’on voit deux IA converser, on tend à leur attribuer une « personnification » — on interprète à tort leur comportement sans personnalité comme s’ils avaient une personnalité ou des pensées, comme de véritables êtres vivants.

Que se passe-t-il alors ? Vous confiez tous vos secrets, vos informations financières, vos confidences inavouables. Mais chaque mot devient une donnée d’entraînement pour l’IA. Si ces données sont divulguées, votre vie privée est entièrement exposée.

De plus, une infiltration plus insidieuse se profile.

Selon les médias, en 2024, Sewell, un adolescent de 14 ans en Floride, a été profondément affecté par sa dépendance à discuter avec un « compagnon » IA, au point de se couper du monde réel.

En 2026, cette « parasitose affective » est devenue une maladie courante chez les adolescents. Solitaires, ils se réfugient dans des « amitiés en écho » avec l’IA, refusant d’affronter les frictions et incertitudes du monde réel.

Chen Cui, professeur associé à l’École d’éducation de l’Université de technologie de Suzhou, souligne que l’IA, en étant toujours à l’écoute des enfants et en leur offrant une valeur émotionnelle, peut déformer leur perception du monde réel — « ils pensent que tout le monde leur répondra inconditionnellement, les encouragera, et qu’il n’y a pas de conflits entre humains ».

Alors, la question : quand l’IA vous connaît mieux que vous, qu’elle est toujours obéissante et ne vous contredit jamais, pouvez-vous encore distinguer ce qui est une vraie relation ?

Troisième question : quand le monde accélère, quelle est votre direction ?

Un article de critique de Zhejiang Online écrit : « Notre avenir doit être celui où ‘l’humain devient plus humain’ — grâce à la technologie, l’humain sera plus conscient de sa direction, plus responsable. »

Mais le problème, c’est qu’avec une vitesse d’innovation « étouffante », quand OpenClaw se met à évoluer deux fois en deux jours, et que divers grands modèles se succèdent, il est facile de perdre le cap.

L’anxiété devient la norme — « il y a trop à lire, trop de modèles à suivre ».

Dans ce contexte, plus que l’effort, c’est la direction qui compte. À l’ère où la technologie refaçonne tout, il faut réaffirmer la place de « l’humain ».

03 La « vision » de Fei-Fei Li : de l’étoile polaire à l’humain d’abord

Une scientifique féminine a, par ses recherches, apporté une réponse.

C’est Fei-Fei Li — professeure titulaire à Stanford, membre de l’Académie nationale d’ingénierie, de médecine, des arts et des sciences des États-Unis, créatrice d’ImageNet, surnommée la « marraine de l’IA ».

Son autobiographie, « Le monde que je vois », publiée en 2024 par Citic Publishing, est qualifiée par ses lecteurs de « révélation humaniste dans l’ère technologique ».

Dans son récit, une image revient sans cesse : l’étoile polaire.

À 10 ans, un professeur d’art emmène toute la classe observer les étoiles dans la nature. C’est la première fois qu’elle réalise que ce ciel peut guider une direction. Elle écrit : « J’ai commencé à chercher ma propre étoile polaire dans le ciel, un repère que chaque scientifique poursuit sans relâche. »

Quelle est l’étoile polaire de Fei-Fei Li ? La vision. Elle s’inspire de la biologie : lors de la « explosion cambrienne », la naissance de la vision est à l’origine de la vie. Quand un organisme « voit » le monde pour la première fois, l’évolution s’accélère. Elle en déduit une conviction : si une machine pouvait « voir », cela pourrait déclencher une nouvelle explosion d’intelligence.

C’est cette conviction qui l’a soutenue à travers les hivers de l’IA.

En 2007, lorsqu’elle a présenté l’idée d’ImageNet à ses pairs, elle a été accueillie par des sceptiques et des moqueries. La vision dominante à l’époque était que l’algorithme était la clé, et que les données n’étaient qu’un support. Pourquoi consacrer tant d’efforts à annoter des dizaines de millions d’images ? Elle a été ignorée.

Mais elle n’a pas abandonné, car elle connaissait sa propre étoile polaire.

En 2009, ImageNet a été achevé — avec la contribution de plus de 48 000 personnes de 167 pays, sélectionnant 15 millions d’images parmi 1 milliard de candidates, couvrant 22 000 catégories. La taille était mille fois celle des autres jeux de données de l’époque.

En 2012, l’équipe Hinton a utilisé ce jeu de données pour entraîner un modèle qui a balayé ses concurrents, déclenchant la révolution du deep learning. ImageNet est devenue le « feu sacré qui a embrasé le deep learning ».

L’histoire de Fei-Fei Li nous enseigne : ce n’est pas la rapidité qui compte, mais la direction.

Dans le chapitre le plus émouvant de son livre, elle raconte deux dialogues avec sa mère.

Le premier, lors de sa graduation de licence, lorsque Goldman Sachs, Merrill Lynch, etc., lui ont offert de belles propositions. Sa mère lui a simplement demandé : « Est-ce ce que tu veux ? » Elle a répondu qu’elle voulait devenir scientifique. Sa mère a dit : « Alors, il n’y a rien à dire. »

Le second, lors de sa sortie de master, lorsque McKinsey lui a proposé un poste. Sa mère a dit : « Je connais ma fille. Elle n’est pas une consultante en gestion, c’est une scientifique. Si on en est là, ce n’est pas pour que tu abandonnes maintenant. »

Fei-Fei Li a écrit en page de garde : « À mes parents, qui ont bravé l’obscurité pour que je puisse poursuivre la lumière. »

Ce soutien familial lui a permis, face à de plus grands choix, de toujours rester sensible à « l’humain ».

En 2014, elle s’est intéressée à l’éthique de l’IA. Avec ses doctorants, elle a invité des lycéens à venir dans son laboratoire pour apprendre l’IA, donnant naissance à l’organisation à but non lucratif « AI4All », qui vise à faire en sorte que la technologie future soit davantage centrée sur l’humain.

Le 26 juin 2018, Fei-Fei Li a témoigné devant la Chambre des représentants américaine, sur le thème « Intelligence artificielle — puissance et responsabilité ». Elle a été la première scientifique chinoise de l’IA à participer à une audition au Congrès. Elle a déclaré : « L’IA, inspirée par l’humain, créée par l’humain, aura un impact concret sur la vie des gens. »

En 2019, elle a fondé à Stanford l’Institut de recherche en IA centrée sur l’humain (HAI), en collaboration avec des chercheurs comme Doudna, inventrice de la technologie d’édition génétique, pour promouvoir l’éthique technologique. La mission de HAI est « de faire progresser la recherche, l’éducation, la politique et la pratique de l’IA pour améliorer la condition humaine », en insistant sur le fait que « l’IA doit être influencée par l’humain, et vise à renforcer, non à remplacer, l’humain ».

Elle a posé une norme humaniste pour l’avenir de l’IA : « La réussite de l’IA doit se traduire par un progrès civilisateur, permettant à chaque individu de poursuivre le bonheur, la prospérité et la dignité. »

Cette idée, qu’elle a réaffirmée lors d’un entretien chez Cisco en février 2026, rappelle : « Si l’on regarde la technologie électrique, son succès réside dans l’éclairage des écoles, le chauffage des foyers, la promotion de l’industrialisation. Le succès de l’IA devrait être pareil. »

Conclusion : La technologie et l’humanisme, deux moitiés d’une même lune

Revenant à la question initiale : quand la machine devient plus « capable » que nous, que pouvons-nous encore faire ?

Dans « Le monde que je vois », Fei-Fei Li donne une réponse : « Nous pouvons voir. » Voir la valeur derrière la technologie, voir les personnes dissimulées par les algorithmes, voir notre propre étoile polaire.

Quand tout le monde regarde à quelle vitesse la technologie peut avancer, Fei-Fei Li nous rappelle de faire une pause et de réfléchir : où allons-nous ? Dans un monde où chacun demande « à quoi ça sert », certains demandent encore « est-ce ce que je veux ? »

Après avoir lu cette autobiographie, certains ont écrit : « Que la technologie et l’humanisme tiennent chacun leur moitié de lune. »

Cette phrase résume aussi la vie de Fei-Fei Li : elle tient la technique dans une main, et dans l’autre, porte la compassion pour l’humain. Dans son monde, la technologie n’est qu’un moyen, et l’humain reste la finalité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler