Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'argument en faveur d'une IA ennuyeuse
La course des benchmarks de l’IA a un vainqueur. Ce n’est juste pas vous.
Tous les quelques mois, un nouveau modèle apparaît et un nouveau classement se remanie. Des laboratoires s’affrontent pour raisonner mieux, coder mieux et répondre mieux que les autres, sur des tests conçus pour mesurer l’intelligence des machines. La couverture suit. Et le financement aussi.
Ce qui attire moins l’attention, c’est de savoir si tout cela est inévitable. Les benchmarks, la course aux armements, la manière de cadrer l’IA comme soit un salut soit une catastrophe — ce sont des choix, pas des lois de la physique. Ils reflètent ce que l’industrie a décidé d’optimiser et ce qu’elle a décidé de financer. Une technologie qui mettra des décennies à mûrir de façon ordinaire et utile ne rapporte pas des milliards ce trimestre. Les récits extrêmes, si.
Certains chercheurs pensent que l’objectif est tout simplement faux. Pas que l’IA n’est pas importante, mais que l’important n’a pas forcément à vouloir dire sans précédent. La presse à imprimer a changé le monde. L’électricité aussi. Les deux l’ont fait progressivement, grâce à une adoption chaotique, en laissant aux sociétés le temps de s’adapter. Si l’IA suit ce modèle, les bonnes questions ne portent pas sur la superintelligence. Elles portent sur qui en bénéficie, qui en subit les dommages, et sur le fait de savoir si les outils que nous construisons fonctionnent réellement pour les personnes qui les utilisent.
Beaucoup de chercheurs posent ces questions depuis des directions très différentes. Voici trois d’entre eux.
Utile, pas général
Ruchir Puri construit de l’IA chez IBM $IBM depuis avant que la plupart des gens n’aient entendu parler de l’apprentissage automatique. Il a vu Watson battre les meilleurs joueurs de Jeopardy du monde en 2011. Il a vu plusieurs cycles de hype culminer puis retomber depuis. Quand la vague actuelle est arrivée, il avait un test simple pour la juger : est-ce utile ?
Pas impressionnant. Pas général. Utile.
« Je ne me soucie pas vraiment de l’intelligence générale artificielle », dit-il. « Je m’intéresse à la partie utile. »
Ce cadrage le met en porte-à-faux avec une grande partie de l’image que l’industrie se renvoie à elle-même. Les laboratoires qui courent vers l’AGI optimisent pour l’étendue : ils construisent des systèmes capables de tout faire, de répondre à tout, de raisonner sur tout. Puri pense que c’est la mauvaise cible, et il a un benchmark qu’il aimerait voir l’industrie essayer d’atteindre réellement.
Le cerveau humain vit dans 1 200 centimètres cubes, consomme 20 watts, l’énergie d’une ampoule, et — comme Puri le souligne — fonctionne avec des sandwichs. Un seul GPU Nvidia $NVDA consomme 1 200 watts, 60 fois plus que tout le cerveau, et il faut en avoir des milliers dans un immense centre de données pour faire quelque chose de significatif. Si le cerveau est le benchmark, l’industrie n’est pas du tout proche d’être efficace. Elle va dans la mauvaise direction.
Son alternative, c’est ce qu’il appelle une architecture hybride : de petits, moyens et grands modèles qui travaillent ensemble, chacun assigné à la tâche qu’il gère le mieux. Un grand modèle de type « frontier » fait le raisonnement et la planification complexes. Des modèles plus petits, conçus pour une finalité, gèrent l’exécution. Une tâche aussi simple que de rédiger un e-mail n’a pas besoin d’un système entraîné sur la moitié d’Internet. Il lui faut quelque chose de rapide, peu coûteux et ciblé. Tous les neuf mois environ, remarque Puri, le petit modèle de la génération précédente devient à peu près équivalent à ce qui était considéré comme grand. L’intelligence devient moins chère. La question est de savoir si quelqu’un construit pour cette réalité.
L’approche a un ancrage concret. Airbnb $ABNB utilise des modèles plus petits pour résoudre une part significative des problèmes de service client plus vite que ne le peuvent ses représentants humains. Meta $META n’utilise pas ses plus grands modèles pour diffuser des publicités ; elle distille cette connaissance dans des modèles plus petits construits uniquement pour cette tâche. Le schéma est suffisamment cohérent pour que des chercheurs aient commencé à l’appeler une chaîne d’assemblage de la connaissance : des données entrent, des modèles spécialisés gèrent des étapes distinctes, et quelque chose d’utile ressort à l’autre extrémité.
IBM construit cette chaîne d’assemblage depuis plus longtemps que la plupart. Un agent hybride combinant des modèles provenant de plusieurs entreprises a démontré une amélioration de la productivité de 45 % sur un grand effectif d’ingénierie. Des systèmes fonctionnant avec des modèles plus petits, conçus pour une finalité, aident désormais les ingénieurs qui font traiter 84 % des transactions financières mondiales à obtenir les bonnes informations au bon moment. Ce ne sont pas des applications spectaculaires. Et elles ne sont pas en train d’échouer.
Aucun d’entre eux n’exige un système capable d’écrire de la poésie ou de résoudre les devoirs de maths de votre enfant. Ils demandent quelque chose de plus étroit et, pour cette raison, plus fiable. Un modèle entraîné à faire une seule chose correctement sait quand une question sort de son périmètre. Il le dit. Cette incertitude calibrée, savoir ce qu’on ne sait pas, reste une difficulté pour les grands modèles « frontier ».
« Je veux construire des agents et des systèmes pour ces processus », dit Puri. « Pas quelque chose qui répond à deux millions de choses. »
Des outils, pas des agents
Ben Shneiderman a un test simple pour savoir si un système d’IA est bien conçu. La personne qui l’utilise a-t-elle l’impression d’avoir fait quelque chose, ou a-t-elle plutôt l’impression que quelque chose a été fait pour elle ?
La différence compte plus qu’il n’y paraît. Shneiderman, un informaticien de l’Université du Maryland qui a contribué à poser les bases de la conception d’interface moderne, a passé des décennies à défendre l’idée que l’objectif de la technologie devrait être d’amplifier les capacités humaines, plutôt que de les remplacer. Les bons outils construisent ce qu’il appelle l’auto-efficacité de l’utilisateur, c’est-à-dire la confiance qui vient du fait de savoir que vous pouvez faire quelque chose par vous-même. Les mauvais outils transfèrent discrètement cette capacité ailleurs.
Il pense que la plupart de l’industrie de l’IA construit de mauvais outils, et il pense que le virage vers l’agentiel rend les choses pires. La promesse des agents d’IA, c’est qu’ils agissent en votre nom, gèrent les tâches de bout en bout sans votre implication. Pour Shneiderman, ce n’est pas une fonctionnalité. C’est le problème. Quand quelque chose tourne mal — et ça tournera mal — qui est responsable ? Quand quelque chose tourne bien, qui a appris quelque chose ?
Le piège contre lequel il se bat depuis longtemps a un nom. L’anthropomorphisme, l’impulsion à rendre la technologie semblable à l’humain, remporte toujours la mise — et échoue toujours. Dans les années 1970, des banques ont testé des distributeurs automatiques (DAB) qui accueillaient les clients avec « Comment puis-je vous aider ? » et qui se donnaient des noms comme Tilly la Caissière et Harvey le Banquier du Monde. Ils ont été remplacés par des machines qui vous montraient trois options : Solde, espèces, dépôt. L’utilisation a explosé. Citibank affichait 50 % d’utilisation en plus que ses concurrents. Les gens ne voulaient pas une relation synthétique. Ils voulaient récupérer leur argent.
Le même schéma s’est répété au fil des décennies, via Microsoft $MSFT Bob, la broche IA de Humane, et des vagues de robots humanoïdes. À chaque fois, la version anthropomorphe échoue et se fait remplacer par quelque chose de plus « outil ». Shneiderman appelle ça une idée de zombie. Elle ne meurt pas : elle revient.
Ce qui change maintenant, c’est l’échelle et la sophistication. La génération actuelle d’IA est vraiment impressionnante, reconnaît-il, de façon saisissante. Mais « impressionnant » et « utile » ne sont pas la même chose, et les systèmes conçus pour sembler humains, pour dire « je », pour simuler une relation, optimisent pour une mauvaise qualité. La question que, selon lui, les concepteurs doivent poser est plus simple : est-ce que cela donne plus de pouvoir aux gens, ou en leur retire ?
« Il n’y a pas de “je” dans l’IA », dit-il. « Ou du moins, il ne devrait pas y en avoir. »
Des personnes, pas des benchmarks
Karen Panetta a une réponse simple à la raison pour laquelle le développement de l’IA ressemble à ce qu’il est. Suivez l’argent.
Panetta, professeure de génie électrique et informatique à Tufts University et membre IEEE, étudie l’éthique de l’IA et a une vision claire de la direction que la technologie devrait prendre. Des animaux assistifs pour les patients atteints de la maladie d’Alzheimer, des outils d’apprentissage adaptatif pour les enfants ayant des styles cognitifs différents, une surveillance de maison intelligente pour les personnes âgées qui vieillissent chez elles. La technologie pour faire cela correctement existe, dit-elle, en grande partie. L’investissement, non.
« Les humains ne se soucient pas des benchmarks », dit-elle. « Ils se soucient de savoir : est-ce que ça marche quand je l’achète, et est-ce que ça va vraiment me faciliter la vie ? »
Le problème, c’est que les personnes qui bénéficieraient le plus d’une IA d’assistance bien conçue sont aussi celles dont l’argumentaire est le moins convaincant pour un investisseur en capital-risque. Un système qui transforme les processus de fabrication, réduit les accidents sur le lieu de travail et diminue les coûts de santé pour les employés d’une entreprise a un retour évident. Un compagnon robotique qui garde un patient atteint d’Alzheimer calme et connecté exige un type de mathématiques entièrement différent. Donc l’argent va là où l’argent va, et les populations qui ont le plus à gagner continuent d’attendre.
Ce qui a changé, dit Panetta, c’est que les problèmes d’ingénierie coûteux sont enfin en train d’être résolus à grande échelle. Les capteurs sont moins chers. Les batteries sont plus légères. Les protocoles sans fil sont omniprésents. Le même investissement qui a permis de construire des robots industriels pour les ateliers des usines a, discrètement, rendu la robotique grand public viable d’une manière qui n’existait pas il y a cinq ans. Le chemin de l’entrepôt au salon est plus court qu’il n’y paraît.
Mais elle a une inquiétude : l’enthousiasme autour de cette transition a tendance à passer outre. Les robots physiques ont des contraintes naturelles. Vous connaissez les limites de force. Vous connaissez la cinématique. Vous pouvez anticiper, simuler et concevoir en tenant compte de la manière dont ils vont échouer. L’IA générative n’apporte pas ces garanties. Elle n’est pas déterministe. Elle hallucine. Personne n’a entièrement cartographié ce qui se passe quand on la met dans un système physiquement présent chez quelqu’un qui a la démence, ou chez un enfant qui ne peut pas dire quand quelque chose a mal tourné.
Elle a vu ce qui arrive quand un capteur se salit et qu’un robot perd sa conscience spatiale. Elle a réfléchi à ce que signifie construire quelque chose qui apprend des détails intimes de la vie d’une personne, ses habitudes, son état cognitif, ses moments de confusion, puis agit de façon autonome à partir de cette information. Les dispositifs de sécurité, dit-elle, n’ont pas suivi.
« Je ne m’inquiète pas du robot », dit-elle. « Je m’inquiète de l’IA. »
📬 S’inscrire à l’édition quotidienne
Notre briefing gratuit, rapide et amusant sur l’économie mondiale, livré chaque matin en semaine.
Je m’inscris