L'argument en faveur d'une IA ennuyeuse

La course aux benchmarks de l’IA a un vainqueur. Ce n’est juste pas vous.

Tous les quelques mois, un nouveau modèle apparaît et un nouveau classement se réarrange. Les laboratoires s’affrontent pour raisonner mieux, coder mieux et répondre mieux que les autres sur des tests conçus pour mesurer l’intelligence des machines. La couverture suit. Et le financement aussi.

Ce qui retient moins l’attention, c’est de savoir si tout cela est inévitable. Les benchmarks, la course aux armements, la façon de présenter l’IA soit comme un salut, soit comme une catastrophe — ce sont des choix, pas des lois de la physique. Ils reflètent ce que l’industrie a décidé d’optimiser et ce qu’elle a décidé de financer. La technologie qui mettra des décennies à mûrir dans des usages ordinaires et utiles ne rapporte pas des milliards ce trimestre. Les récits extrêmes, oui.

Certains chercheurs pensent que l’objectif est tout simplement erroné. Pas que l’IA n’est pas importante, mais que l’important n’a pas besoin de signifier sans précédent. La presse à imprimer a changé le monde. L’électricité aussi. Les deux l’ont fait progressivement, via une adoption chaotique, en donnant aux sociétés le temps de s’adapter. Si l’IA suit ce schéma, les bonnes questions ne portent pas sur la superintelligence. Elles portent sur qui en bénéficie, qui en subit les dommages, et sur le fait que les outils que nous construisons fonctionnent réellement pour les personnes qui les utilisent.

Beaucoup de chercheurs posent ces questions depuis des directions très différentes. Voici trois d’entre eux.

Utile, pas général

Ruchir Puri a construit de l’IA chez IBM $IBM -0.68% avant que la plupart des gens aient entendu parler de l’apprentissage automatique. Il a vu Watson battre les meilleurs joueurs du monde de Jeopardy en 2011. Il a vu plusieurs cycles d’emballement médiatique monter puis redescendre depuis. Quand la vague actuelle est arrivée, il avait un test simple : est-ce utile ?

Pas impressionnant. Pas général. Utile.

« Je ne me soucie pas vraiment de l’intelligence générale artificielle », dit-il. « Je me soucie de la partie utile. »

Ce cadrage le met en porte-à-faux avec une grande partie de l’image que l’industrie renvoie sur elle-même. Les laboratoires qui courent vers l’AGI optimisent pour l’étendue, construisant des systèmes capables de tout faire, de répondre à tout, de raisonner sur tout. Puri pense que c’est une mauvaise cible, et il a un benchmark qu’il aimerait voir l’industrie essayer réellement d’atteindre.

Le cerveau humain vit dans 1 200 centimètres cubes, consomme 20 watts, l’énergie d’une ampoule, et, comme Puri le souligne, fonctionne sur des sandwiches. Un seul GPU Nvidia $NVDA +0.26% consomme 1 200 watts, 60 fois plus que l’ensemble du cerveau, et il en faut des milliers dans un gigantesque centre de données pour faire quoi que ce soit de significatif. Si le cerveau est le benchmark, l’industrie n’est pas proche d’être efficace. Elle va dans la mauvaise direction.

Son alternative s’appelle, ce qu’il appelle, une architecture hybride : de petits, moyens et grands modèles qui travaillent ensemble, chacun affecté à la tâche qu’il gère le mieux. Un grand modèle « frontier » fait le raisonnement et la planification complexes. Des modèles plus petits, conçus pour une finalité précise, gèrent l’exécution. Une tâche aussi simple que rédiger un e-mail n’a pas besoin d’un système entraîné sur la moitié d’Internet. Il lui faut quelque chose de rapide, bon marché et ciblé. Tous les neuf mois environ, note Puri, le petit modèle de la génération précédente devient à peu près équivalent à ce qu’on considérait comme « grand ». L’intelligence devient moins chère. La question est de savoir si quelqu’un construit en fonction de cette réalité.

L’approche a un ancrage dans le monde réel. Airbnb $ABNB -1.45% utilise des modèles plus petits pour résoudre une part significative des problèmes de service client plus rapidement que ne le peuvent ses représentants humains. Meta $META +0.35% n’utilise pas ses plus grands modèles pour diffuser des publicités : elle distille cette connaissance en des modèles plus petits conçus uniquement pour cette tâche. Le schéma est suffisamment cohérent pour que des chercheurs commencent à l’appeler une ligne de montage de connaissances : les données entrent, des modèles spécialisés gèrent des étapes distinctes, et quelque chose d’utile sort à l’autre extrémité.

IBM construit cette ligne d’assemblage plus longtemps que la plupart. Un agent hybride combinant des modèles provenant de plusieurs entreprises a montré une amélioration de productivité de 45 % sur un large effectif d’ingénieurs. Des systèmes fonctionnant sur des modèles plus petits et conçus pour une finalité précise aident désormais les ingénieurs qui font tourner 84 % des transactions financières mondiales de traitement à obtenir la bonne information au bon moment. Ce ne sont pas des applications spectaculaires. Et elles ne sont pas non plus en train d’échouer.

Aucun d’eux n’exige un système capable d’écrire de la poésie ou de résoudre les devoirs de maths de votre enfant. Ils exigent quelque chose de plus étroit, et, pour cette raison, plus fiable. Un modèle entraîné à faire une seule chose correctement sait quand une question sort de son périmètre. Il le dit. Cette incertitude calibrée, savoir ce que l’on ne sait pas, est quelque chose avec quoi les grands modèles « frontier » ont encore du mal.

« Je veux construire des agents et des systèmes pour ces processus », dit Puri. « Pas quelque chose qui répond à deux millions de choses. »

Des outils, pas des agents

Ben Shneiderman a un test simple pour savoir si un système d’IA est bien conçu. La personne qui l’utilise a-t-elle l’impression d’avoir fait quelque chose, ou a-t-elle l’impression que quelque chose a été fait pour elle ?

La distinction compte plus que ce qu’elle ne paraît. Shneiderman, informaticien à l’Université du Maryland et qui a contribué à poser les fondations du design d’interface moderne, a passé des décennies à défendre l’idée que l’objectif de la technologie devrait être d’amplifier les capacités humaines, pas de les remplacer. Les bons outils construisent ce qu’il appelle l’auto-efficacité de l’utilisateur, ou la confiance qui vient du fait de savoir que vous pouvez faire quelque chose vous-même. Les mauvais outils transfèrent silencieusement cette capacité ailleurs.

Il pense que la plupart de l’industrie de l’IA construit de mauvais outils, et il pense que le tournant « agentique » rend cela encore pire. La promesse des agents d’IA est qu’ils agissent en votre nom, en gérant les tâches de bout en bout sans que vous ayez à intervenir. Pour Shneiderman, ce n’est pas une fonctionnalité. C’est le problème. Quand quelque chose se passe mal, et ça arrivera, qui est responsable ? Quand quelque chose se passe bien, qui a appris quelque chose ?

Le piège contre lequel il lutte depuis longtemps a un nom. L’anthropomorphisme, l’impulsion de rendre la technologie « humaine », est ce qui continue de gagner, et ce qui continue d’échouer. Dans les années 1970, des banques ont expérimenté des distributeurs automatiques (DAB) qui accueillait les clients avec « Comment puis-je vous aider ? » et se donnaient des noms comme Tilly la Caissière et Harvey le Banquier du Monde. Ils ont été remplacés par des machines qui vous montraient trois options : Solde, espèces, dépôt. L’utilisation a fortement augmenté. Citibank avait une utilisation 50 % supérieure à celle de ses concurrents. Les gens ne voulaient pas une relation artificielle. Ils voulaient récupérer leur argent.

Le même schéma s’est répété au fil des décennies, avec « Bob » de Microsoft $MSFT -0.16%, l’épingle IA de Humane, et des vagues de robots humanoïdes. À chaque fois, la version anthropomorphique échoue et est remplacée par quelque chose de plus « outil ». Shneiderman l’appelle une idée de zombie. Elle ne meurt pas, elle revient sans cesse.

Ce qui change aujourd’hui, c’est l’échelle et la sophistication. La génération actuelle d’IA, admet-il, est vraiment impressionnante, de façon étonnante. Mais impressionnant et utile ne sont pas la même chose, et des systèmes conçus pour sembler humains, pour dire « je », pour simuler une relation, optimisent pour une mauvaise qualité. La question plus simple qu’il veut que les concepteurs se posent est la suivante : est-ce que cela donne plus de pouvoir aux gens, ou moins ?

« Il n’y a pas de “je” dans l’IA », dit-il. « Ou du moins, il ne devrait pas y en avoir. »

Des personnes, pas des benchmarks

Karen Panetta a une réponse simple à la raison pour laquelle le développement de l’IA ressemble à ce qu’il est. Suivez l’argent.

Panetta, professeure de génie électrique et informatique à l’Université Tufts et membre IEEE, étudie l’éthique de l’IA et a une vision claire de la direction que la technologie devrait prendre. Des animaux de compagnie assistifs pour les patients atteints d’Alzheimer, des outils d’apprentissage adaptatifs pour des enfants avec des styles cognitifs différents, une surveillance de maison intelligente pour des personnes âgées qui vieillissent chez elles. La technologie pour le faire correctement existe, dit-elle, en grande partie. L’investissement, lui, ne suit pas.

« Les humains ne se soucient pas des benchmarks », dit-elle. « Ils se soucient de : est-ce que ça marche quand je l’achète, et est-ce que ça va vraiment me faciliter la vie ? »

Le problème, c’est que les personnes qui bénéficieraient le plus d’une IA d’assistance bien conçue sont aussi celles qui constituent l’argument le moins convaincant pour un capital-risque. Un système qui transforme les processus de fabrication, réduit les accidents du travail et diminue les coûts de santé pour les employés d’une entreprise a un retour évident. Un compagnon robotique qui garde un patient atteint d’Alzheimer calme et connecté nécessite une autre sorte de mathématiques, entièrement. Alors l’argent va là où l’argent va, et les populations qui ont le plus à gagner continuent d’attendre.

Ce qui a changé, dit Panetta, c’est que les problèmes d’ingénierie coûteux sont enfin en train d’être résolus à grande échelle. Les capteurs sont moins chers. Les batteries sont plus légères. Les protocoles sans fil sont partout. Le même investissement qui a permis de construire des robots industriels pour les ateliers d’usine a discrètement rendu la robotique grand public viable d’une manière qui n’existait pas il y a cinq ans. Le chemin de l’entrepôt au salon est plus court qu’il n’y paraît.

Mais elle a une inquiétude : l’enthousiasme autour de cette transition tend à sauter par-dessus certains points. Les robots physiques ont des contraintes naturelles. Vous connaissez les limites de force. Vous connaissez la cinématique. Vous pouvez anticiper, simuler et concevoir autour de la façon dont ils échoueront. L’IA générative n’offre pas ces garanties. Elle n’est pas déterministe. Elle hallucine. Personne n’a totalement cartographié ce qui se passe quand on la met à l’intérieur d’un système physiquement présent dans le domicile de quelqu’un atteint de démence, ou chez un enfant qui n’est pas capable d’identifier quand quelque chose a mal tourné.

Elle a vu ce qui se passe lorsqu’un capteur se salit et qu’un robot perd sa conscience spatiale. Elle a réfléchi à ce que signifie construire quelque chose qui apprend des détails intimes sur la vie d’une personne, ses routines, son état cognitif, ses moments de confusion, puis agit de façon autonome à partir de ces informations. Les dispositifs de sécurité, dit-elle, n’ont pas suivi.

« Je ne m’inquiète pas du robot », dit-elle. « Je m’inquiète de l’IA. »

📬 Inscrivez-vous au Brief quotidien

Notre briefing gratuit, rapide et amusant sur l’économie mondiale, livré chaque matin du lundi au vendredi.

S’inscrire

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler