Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'argument en faveur d'une IA ennuyeuse
La course aux benchmarks de l’IA a un gagnant. Mais ce n’est pas vous.
Tous les quelques mois, un nouveau modèle sort et un nouveau classement se réarrange. Les laboratoires rivalisent pour faire mieux en termes de raisonnement, de code et de réponses que les autres sur des tests conçus pour mesurer l’intelligence des machines. La couverture suit. Et le financement aussi.
Ce qui attire moins l’attention, c’est de savoir si tout cela est inévitable. Les benchmarks, la course aux armements, le fait de présenter l’IA soit comme un salut soit comme une catastrophe — ce sont des choix, pas des lois de la physique. Ils reflètent ce que l’industrie a décidé d’optimiser, et ce qu’elle a décidé de financer. Une technologie qui mettrait des décennies à porter ses fruits dans des usages ordinaires et utiles ne rapporte pas des milliards ce trimestre. Ce sont les récits extrêmes qui le font.
Certains chercheurs pensent que l’objectif est tout simplement faux. Pas que l’IA n’est pas importante, mais que « important » ne doit pas forcément vouloir dire sans précédent. La machine à imprimer a changé le monde. L’électricité aussi. Les deux l’ont fait progressivement, grâce à une adoption chaotique, en laissant aux sociétés le temps de s’adapter. Si l’IA suit ce schéma, les bonnes questions ne portent pas sur la superintelligence. Elles portent sur qui en profite, qui subit des dommages, et sur le fait de savoir si les outils que nous construisons fonctionnent réellement pour les personnes qui les utilisent.
Beaucoup de chercheurs posent déjà ces questions depuis des angles très différents. Voici trois d’entre eux.
Utile, pas général
Ruchir Puri construit de l’IA chez IBM $IBM -0.57% depuis avant que la plupart des gens n’aient entendu parler de l’apprentissage machine. Il a vu Watson battre les meilleurs joueurs de Jeopardy du monde en 2011. Il a vu plusieurs cycles d’engouement monter puis redescendre. Quand la vague actuelle est arrivée, il l’a testée simplement : est-ce utile ?
Pas impressionnant. Pas général. Utile.
« Je ne me soucie pas vraiment de l’intelligence générale artificielle », dit-il. « Je me soucie de la partie utile. »
Cette façon de cadrer le met en porte-à-faux avec une grande partie de l’image que l’industrie se donne. Les laboratoires qui se précipitent vers l’AGI optimisent pour l’étendue : construire des systèmes capables de tout faire, de répondre à tout, de raisonner sur tout. Puri pense que c’est la mauvaise cible, et il a un benchmark qu’il aimerait voir l’industrie essayer réellement d’atteindre.
Le cerveau humain vit dans 1 200 centimètres cubes, consomme 20 watts, l’énergie d’une ampoule, et, comme Puri le souligne, fonctionne avec des sandwiches. Un seul GPU Nvidia $NVDA +0.14% consomme 1 200 watts, 60 fois plus que l’ensemble du cerveau, et il en faut des milliers dans un gigantesque centre de données pour faire quelque chose d’utile. Si le cerveau est le benchmark, l’industrie n’est pas du tout proche d’être efficace. Elle va dans la mauvaise direction.
Son alternative, c’est ce qu’il appelle une architecture hybride : des modèles petits, moyens et grands qui travaillent ensemble, chacun assigné à la tâche qu’il gère le mieux. Un grand modèle de type “frontier” fait le raisonnement et la planification complexes. Des modèles plus petits, conçus pour une tâche précise, gèrent l’exécution. Une tâche aussi simple que rédiger un e-mail n’a pas besoin d’un système entraîné sur la moitié d’Internet. Il lui faut quelque chose de rapide, bon marché et ciblé. Tous les neuf mois environ, note Puri, le modèle petit de la génération précédente devient à peu près équivalent à ce qui était considéré comme grand. L’intelligence devient moins chère. La question, c’est de savoir si quelqu’un construit en fonction de cette réalité.
L’approche est soutenue par des preuves dans le monde réel. Airbnb $ABNB +1.49% utilise des modèles plus petits pour résoudre une part significative des problèmes de service client plus vite que ses représentants humains ne le peuvent. Meta $META -0.25% n’utilise pas ses plus grands modèles pour diffuser des publicités : elle distille cette connaissance en modèles plus petits construits uniquement pour cette tâche. Le schéma est suffisamment cohérent pour que des chercheurs commencent à l’appeler une chaîne d’assemblage de connaissances : les données entrent, des modèles spécialisés gèrent des étapes distinctes, et quelque chose d’utile ressort à l’autre extrémité.
IBM construit cette chaîne d’assemblage depuis plus longtemps que la plupart. Un agent hybride combinant des modèles de plusieurs entreprises a montré une amélioration de 45% de la productivité sur un vaste effectif d’ingénieurs. Des systèmes fonctionnant sur des modèles plus petits, conçus pour une tâche précise, aident désormais les ingénieurs qui veillent à ce que 84% des transactions financières mondiales soient traitées avec les bonnes informations, au bon moment. Ce ne sont pas des applications spectaculaires. Et elles ne sont pas non plus en échec.
Aucun d’eux n’exige un système capable d’écrire de la poésie ou de résoudre les devoirs de maths de votre enfant. Ils exigent quelque chose de plus étroit et, pour cette raison, plus fiable. Un modèle entraîné à faire une seule chose correctement sait quand une question sort de son périmètre. Il le dit. Cette incertitude calibrée, c’est-à-dire le fait de savoir ce qu’on ne sait pas, est encore quelque chose que les grands modèles “frontier” ont du mal à faire.
« Je veux construire des agents et des systèmes pour ces processus », dit Puri. « Pas quelque chose qui répond à deux millions de choses. »
Des outils, pas des agents
Ben Shneiderman a un test simple pour savoir si un système d’IA est bien conçu. La personne qui l’utilise a-t-elle l’impression d’avoir fait quelque chose, ou a-t-elle l’impression que quelque chose a été fait pour elle ?
Cette distinction compte plus que ce qu’elle laisse entendre. Shneiderman, informaticien à l’Université du Maryland et qui a aidé à poser les fondations du design d’interface moderne, a passé des décennies à soutenir que l’objectif de la technologie devrait être d’amplifier la capacité humaine, plutôt que de la remplacer. De bons outils construisent ce qu’il appelle l’auto-efficacité de l’utilisateur, c’est-à-dire la confiance qui vient du fait de savoir qu’on peut faire quelque chose soi-même. Les mauvais outils transfèrent silencieusement cette capacité ailleurs.
Il pense que la plupart de l’industrie de l’IA construit de mauvais outils, et il pense que le “virage agentique” rend les choses pires. La promesse faite aux agents d’IA, c’est qu’ils agissent en votre nom, en gérant des tâches de bout en bout sans votre implication. Pour Shneiderman, ce n’est pas une fonctionnalité. C’est le problème. Quand quelque chose tourne mal, et ça tournera, qui est responsable ? Quand quelque chose tourne bien, qui a appris quelque chose ?
Le piège contre lequel il lutte depuis longtemps a un nom. L’anthropomorphisme, l’impulsion de rendre la technologie “humaine”, est ce qui continue de gagner, et ce qui continue d’échouer. Dans les années 1970, des banques ont testé des distributeurs automatiques (ATM) qui accueillaient les clients avec « Comment puis-je vous aider ? » et se donnaient des noms comme Tilly la caissière et Harvey le banquier du monde. Ils ont été remplacés par des machines qui vous montraient trois options. Solde, espèces, dépôt. L’utilisation a bondi. Citibank affichait une utilisation 50% plus élevée que celle de ses concurrents. Les gens ne voulaient pas une relation synthétique. Ils voulaient récupérer leur argent.
Le même schéma s’est répété au fil des décennies, avec Microsoft $MSFT -0.16% Bob, l’épingle IA de Humane, et des vagues de robots humanoïdes. À chaque fois, la version anthropomorphique échoue et est remplacée par quelque chose de plus “outil”. Shneiderman appelle cela une idée de zombie. Elle ne meurt pas, elle revient.
Ce qui change maintenant, c’est l’échelle et la sophistication. La génération d’IA actuelle est réellement impressionnante, admet-il, de façon surprenante. Mais impressionnant et utile ne sont pas la même chose, et des systèmes conçus pour sembler humains, pour dire “moi”, pour simuler une relation, optimisent pour la mauvaise qualité. La question qu’il veut que les concepteurs se posent est plus simple : est-ce que cela donne plus de pouvoir aux gens, ou moins ?
« Il n’y a pas de “moi” dans l’IA », dit-il. « Ou, du moins, il ne devrait pas y en avoir. »
Des personnes, pas des benchmarks
Karen Panetta a une réponse simple à la raison pour laquelle le développement de l’IA ressemble à cela. Suivez l’argent.
Panetta, professeure de génie électrique et informatique à Tufts University et membre IEEE, étudie l’éthique de l’IA et a une vision claire de la direction que la technologie devrait prendre. Des animaux de compagnie d’assistance pour les patients atteints d’Alzheimer, des outils d’apprentissage adaptatif pour des enfants ayant différents styles cognitifs, une surveillance de maison intelligente pour des personnes âgées qui vieillissent sur place. La technologie pour le faire correctement existe, dit-elle, largement. L’investissement, lui, ne suit pas.
« Les humains ne se soucient pas des benchmarks », dit-elle. « Ils se soucient de savoir : est-ce que ça marche quand je l’achète, et est-ce que ça va vraiment rendre ma vie plus facile ? »
Le problème, c’est que les personnes qui bénéficieraient le plus d’une IA d’assistance bien conçue sont aussi celles qui constituent le moins un argument convaincant pour un investisseur en capital-risque. Un système qui transforme des processus de fabrication, réduit les blessures au travail et abaisse les coûts de santé pour les employés d’une entreprise a un retour évident. Un compagnon robotique qui garde un patient atteint d’Alzheimer calme et connecté demande un autre type de mathématiques, entièrement. Alors l’argent va là où l’argent va, et les populations qui ont le plus à gagner continuent d’attendre.
Ce qui a changé, dit Panetta, c’est que les problèmes coûteux d’ingénierie sont enfin en train d’être résolus à grande échelle. Les capteurs coûtent moins cher. Les batteries sont plus légères. Les protocoles sans fil sont partout. Le même investissement qui a permis de construire des robots industriels pour les ateliers d’usine a discrètement rendu la robotique grand public viable d’une manière qui n’existait pas il y a cinq ans. Le trajet de l’entrepôt au salon est plus court qu’il n’y paraît.
Mais elle a une inquiétude : l’enthousiasme autour de cette transition a tendance à sauter cette étape. Les robots physiques ont des contraintes naturelles. Vous connaissez les limites de force. Vous connaissez la cinématique. Vous pouvez anticiper, simuler et concevoir en tenant compte de la façon dont ils échoueront. L’IA générative n’est pas assortie de ces garanties. Elle est non déterministe. Elle hallucine. Personne n’a entièrement cartographié ce qui se passe quand on la met dans un système physiquement présent dans le domicile d’une personne atteinte de démence, ou chez un enfant qui ne sait pas identifier quand quelque chose s’est mal passé.
Elle a vu ce qui se produit quand un capteur se salit et qu’un robot perd sa conscience spatiale. Elle a réfléchi à ce que signifie construire quelque chose qui apprend des détails intimes de la vie d’une personne, ses routines, son état cognitif, ses moments de confusion, puis agit de manière autonome à partir de ces informations. Les dispositifs de sécurité, dit-elle, n’ont pas suivi.
« Je ne m’inquiète pas du robot », dit-elle. « Je m’inquiète de l’IA. »
📬 S’inscrire à la newsletter
Notre briefing gratuit, rapide et amusant sur l’économie mondiale, livré chaque matin en semaine.
Je m’inscris